Independent Türkçe servisinde yer alan habere göre, 16 Haziran''da duyurulan ve "Tartışma Uyarıları" adı verilen araç henüz test aşamasında.
Sosyal medya platformu 2020''nin sonlarında, Facebook''ta on milyonlarca aktif grubun olduğunu ve her ay 1,8 milyardan fazla kullanıcının en az bir grubu kullandığını açıklamıştı.
Ancak bu gruplarda kullanıcılar sık sık kavga ediyor. Buna bir dur demek isteyen şirketin yapay zekaya başvurduğu yeni sisteminde "tartışmalı konuşma" yaşandığında grup yöneticilerine uyarı gidiyor.
Ancak bu tür bir konuşmanın nasıl algılanacağı belli değil. Bu konuda bir açıklama yapan Facebook sözcüsü, makine öğrenim algoritmasından yararlanarak "kullanıcılar arasındaki iletişimin olumsuz olup olmadığını belirlemek için cevap süresi ve yorum sayısı gibi sinyallere" bakılacağını kaydetti.
Sözcü, yöneticilerin tartışmalara yol açabilecek anahtar kelimeleri halihazırda ayarlayabildiğini ifade etti.
Faccebook, artık grup yöneticilerinin, konuşmaları yavaşlatmak için belirli grup üyelerinin yorum yapabilme sıklığını ve kendi seçtikleri belirli gönderilerde ne sıklıkta yorum yapılabileceğini belirleyebileceğini sınır koyabileceğini de sözlerine ekledi.
DEEPFAKE TESPİTİNDE DE YAPAY ZEKA
Facebook ve Michigan State Üniversitesi''nden bilim insanları, deepfake (birisini yapmadığı bir şeyi yapıyormuş gibi göstermek için yapay zeka ve derin öğrenmenin kullanıldığı fotoğraf veya video) görüntülerinin kaynağını bulacak bir yazılım geliştirdiklerini açıkladı.
Facebook''tan Tal Hassaner ve Xi Yin, yapay zeka kullanılan yazılımla görüntülerin nasıl yapıldığının ve nereden geldiklerinin tespit edilebildiğini söyledi.