OpenAI'nin Whisper isimli yapay zeka destekli transkripsiyon aracı, yazılım mühendisleri, geliştiriciler ve akademik araştırmacılarla yapılan görüşmelere göre, metinleri uydurarak yanlış içerikler üretiyor. Bu yanlış içeriklerin bazıları ırkçı yorumlar, şiddet içeren söylemler ve hayali tıbbi tedavileri içerebiliyor. Araştırmacılar, Whisper'ın özellikle tıbbi merkezler tarafından kullanılması durumunda sorunların daha da derinleşebileceğini vurguluyor. OpenAI'nin de belirttiği gibi, bu tür araçlar “yüksek riskli alanlar” için tasarlanmamıştır. Ancak birçok hastane, doktor-patient görüşmelerinin transkripte edilmesi için bu aracı kullanıyor.
Bir Michigan Üniversitesi araştırmacısı, kamu toplantıları üzerine yaptığı çalışmada incelediği ses kayıtlarının yüzde 80'inde uydurma içeriklere rastladığını belirtirken, başka bir mühendis, 100 saatten fazla transkripti analiz ettiğinde yarısında bu hataları bulduğunu ifade etti. Kısa ve net ses kayıtlarında bile sorunların devam ettiğini gösteren bir araştırma, 13,000’den fazla ses kaydında 187 uydurma metin tespit etti.
Sağlık Sektöründe Ciddi Sonuçlar Doğurabilir
Yanlış transkripsiyonlar, hastane ortamlarında ciddi sonuçlar doğurabilir. Princeton Üniversitesi’nde profesör olan Alondra Nelson, “Yanlış teşhis istemiyoruz. Bu tür araçların kullanımında daha yüksek standartlar olmalı” dedi. Özellikle işitme engelli bireyler için, yanlış metinlerin tespit edilmesi neredeyse imkansızdır. Gallaudet Üniversitesi’nden Christian Vogler, “Gizli uydurmalarla dolu olan metinler arasında gerçeği ayırt etmek çok zor” şeklinde konuştu.
Uzmanlar, OpenAI’nin bu sorunları çözmesi için federal hükümete çağrıda bulundu. San Francisco'daki bir araştırma mühendisi William Saunders, “Bu sorun, şirket bunu öncelikli hale getirmeye istekliyse çözülebilir” dedi. OpenAI ise, hata oranını azaltmaya yönelik çalışmalar yaptıklarını belirtti.
Tıbbi Randevu Transkripsiyonu: Gereksinimler ve Sorunlar
Whisper, doktor ziyaretlerini transkripte etmek için de kullanılıyor. Nabla isimli bir şirket, tıbbi terminolojiye özel olarak geliştirilen bir Whisper tabanlı araç sunarak, 30,000’den fazla klinisyenin hizmetine sunuldu. Şirketin teknolojik sorumlusu Martin Raison, bu aracın 7 milyon tıbbi ziyareti transkripte ettiğini ve bu süreçte uydurma içeriklerin riskini bildiklerini ifade etti. Ancak orijinal ses kaydının silinmesi, hataların kontrol edilmesini zorlaştırabilir.
Kaliforniya eyalet milletvekili Rebecca Bauer-Kahan, çocuklarından birini doktora götürdüğünde, sağlık ağının kendisinden alınan ses kaydının teknoloji şirketleriyle paylaşılması için izin istediğini belirtti. Bauer-Kahan, “Özel sağlık bilgilerini teknoloji şirketleriyle paylaşmak istemiyorum” diyerek bu durumu eleştirdi.