Facebook tarafından 16 Haziran'da duyurulan "Tartışma Uyarıları" aracı hala test aşamasında.
2020'nin sonlarında sosyal medya platformu, Facebook'ta her ay en az bir grup kullanan 1,8 milyardan fazla kullanıcıyla on milyonlarca aktif grup olduğunu duyurdu.
Ancak bu gruplarda kullanıcılar genellikle kavga eder. Şirketin yeni sisteminde buna son vermek isteyen bir "tartışmalı konuşma" meydana geldiğinde grup yöneticileri uyarılır.
Ancak bu tür bir konuşmanın nasıl algılanacağı belirsizdir. Bu konuyla ilgili açıklama yapan Facebook sözcüsü, makine öğrenmesi algoritmasını kullanarak "kullanıcılar arasındaki iletişimin olumsuz olup olmadığını belirlemek için yanıt süresi ve yorum sayısı gibi sinyallere bakılacağını" kaydetti.
Sözcü, yöneticilerin tartışmalara neden olabilecek anahtar kelimeleri zaten belirleyebildiğini kaydetti.
Facebook, grup yöneticilerinin artık belirli grup üyelerinin yavaş konuşmaya ne sıklıkla yorum yapabileceklerine ve seçtikleri belirli gönderilere ne sıklıkla yorum yapabileceklerine ilişkin sınırlar belirleyebileceğini ekledi.

DEEPFAKE TESPİTİNDE YAPAY ZEKA
Facebook ve Michigan Eyalet Üniversitesi'nden bilim adamları, derin sahte görüntülerin (yapay zeka ve derin öğrenme kullanan fotoğraf veya videolar) kaynağını bulabilen bir yazılım geliştirdiklerini duyurdular.
Facebook'tan Tal Hassaner ve Xi Yin, yapay zeka kullanan yazılımlarla görüntülerin nasıl yapıldığını ve nereden geldiğini tespit etmenin mümkün olduğunu söyledi.
Yazılım görüntüyü oluşturduğunda kusurları tespit etmek için derin sahte görüntüler bir ağ üzerinde taranır.
Yazılımın şu anda test aşamasında olduğunu belirten Hassner, sözlerini şöyle sürdürdü:
Diyelim ki kötü niyetli bir kişi birçok farklı deepfake videosu üretip farklı kullanıcı hesaplarıyla farklı platformlara yüklüyor. Bu videolar daha önce kimsenin görmediği yeni bir yapay zeka modeliyle oluşturulmuş olsaydı, bu konuda söyleyecek çok az şeyimiz olurdu. Ancak geliştirdiğimiz yeni algoritma sayesinde üretilen bu videoların kaynağını tespit edebileceğiz.