Apple Intelligence, WWDC 2024'te tanıtıldı ve kullanıcıların günlük işlerini kolaylaştırmayı hedefleyen bir yapay zeka (AI) çözümü olarak öne çıktı. Ancak BBC'nin haberine göre, bazı bildirim özetleri, kullanıcıları yanıltıcı bilgilerle karşı karşıya bırakabiliyor. Örneğin, bir bildirim, UnitedHealthcare CEO'su Brian Thompson'ın katili olduğu iddia edilen Luigi Mangione'nin intihar ettiği yönünde yanlış bir özet sundu.
Bu durum, özellikle haber içeriklerinin özetlenmesi sırasında yapay zekanın hata yapma olasılığını gözler önüne seriyor. Apple'ın özelliği, büyük bir dil modeli (LLM) kullanarak bireysel cihazlara özel özetler oluşturuyor. Bu özetlerde, yapay zeka ile oluşturulduklarını gösteren küçük bir simge bulunsa da, kullanıcılar bu simgenin anlamını her zaman fark edemeyebiliyor.
Yapay zekânın dil devrimi: Büyük Dil Modelleri (LLM) nedir?
APPLE'DAN AÇIKLAMA GELDİ
Apple sözcüsü, bildirim özetlerinin opsiyonel olduğunu ve detaylara ulaşmak için kullanıcıların ilgili uygulamaya kolayca erişebileceğini belirtti. Sözcü, "Apple Intelligence, beta aşamasında bir özellik olup, kullanıcı geri bildirimleri ile sürekli geliştirilmektedir. Önümüzdeki haftalarda yayınlanacak yazılım güncellemesi, metinlerin AI özetlemeleri olduğunu daha net şekilde vurgulayacak," ifadelerini kullandı.
Apple Intelligence'ın artı ve eksileri
AI TEKNOLOJİSİNİN SINIRLARI
Büyük dil modelleri, kelimelerin önceki bağlamına dayanarak tahminler yapar ancak içerikleri gerçekten "anlama" yeteneğine sahip değildir. Bu nedenle, yüzde yüz doğru sonuç üretmek mümkün değil. Apple, kullanıcıları bilgilendirerek bu tür hataları tolere etmelerini sağlamayı hedefliyor.
Apple'ın bildirim özetleri, kullanıcılar arasında bilgiye hızlı erişim sağlasa da, hataların ölçekte büyüyebileceği ve yanlış bilgi yayılma riskinin artabileceği eleştirilerine maruz kalıyor. Özellikle milyonlarca bildirim özetinin üretildiği bir sistemde, hataların tamamen ortadan kaldırılması mümkün gözükmüyor.