Denetimsiz kullanım alarm veriyor: Yapay zekâ ‘halüsinasyon’ görüyor

Ozan Ömer Kadüker – Akademik çalışmalardaki tesiri süratle artan yapay zekânın denetimsiz kullanımı birçok riske yol açıyor. Uydurma makaleler, gerçekte var olmayan akademisyenler ve hiç yazılmamış kitaplara yapılan atıflarla yapay zekânın ürettiği “halüsinasyon referanslar” akademide alarm zillerini çaldırdı. Türkiye’nin birçok üniversitesindeki akademisyenler, kendilerine ilişkin olmayan çalışmalarla karşılaştıklarını fark etmeye başladı.

‘Böyle bir makalem yok’

Son olarak Fırat Üniversitesi’nden Prof. Dr. Mehmet Nuri Gömleksiz, “Benim bu türlü bir makalem yok. Birinci isim olarak gösterilen kişiyi tanımıyorum. Daha vahimi, İnönü Üniversitesi Eğitim Fakültesi Dergisi’nde bu kaynakçada gösterilen bu türlü bir makale yok” tabirlerini kullandı. Ege Üniversitesi’nden Doç. Dr. Serkan Acar da Bartın Üniversitesi’nin çıkardığı Çeşm-i Cihan mecmuasında yayımlanan bir yazıda kendisine ilişkin olmayan makalelere atıf yapıldığını belirterek cürüm duyurusunda bulunacağını kaydetti.

Sorumluluğun her vakit muharrire ilişkin olduğunu aktaran Prof. Dr. Ahmet Başal “Yayın akademik teşvik, doçentlik vb. üzere süreçlerde kullanılıyorsa, bu durum ağır bir etik ihlaldir” ihtarında bulunurken Doç. Dr. Yusuf Kızıltaş da “Bu usulsüzlükler çok önemli yaptırımlarla sonuçlanabilir” dedi. Toplumsal medyada misal olaylar yaşadıklarını belirten akademisyenler, yapay zekânın tehlikeli bir boyuta evrildiğine dikkat çekerek ortaya çıkan tabloyu “Akademik içerikte yapay zekâ kullanmak bilimin karanlık çağıdır” kelamlarıyla tanımladı.

Doğrulamadan kullanıyorlar

Benzer olayların yaşanma nedeni hakkında bilgi veren MEF Üniversitesi Rektörü Prof. Dr. Muhammed Şahin, “Akademik lisanda referanslar muhakkak kalıplarla yazıldığı için, model bu kalıpları ustalıkla taklit edebiliyor. Sonuçta ortaya, dilsel olarak son derece ikna edici lakin gerçekte var olmayan kaynaklar çıkabiliyor” diye konuştu.

“Halüsinasyon referanslar, araştırmacıların üretilen bilgiyi doğrulamadan kullanmalarının sonucu” diyen Şahin, akademisyenlerin yapay zekâyı eleştirel bir yardımcı olarak kullanabileceğini aktararak şu tekliflerde bulundu:

■ Hakikat prompt kullanın. 

■ Kaynak formatını mecburî tutun.

■ Gerçek makaleler, PDF’ler yahut bilgi tabanları modele verilerek “Sadece bu evraklar üzerinden yaz” denildiğinde, halüsinasyon riski önemli biçimde düşüyor.

■ Metinlerde; model taslak üretmeli, insan doğrulamalı, Model revizyon yapmalı. Yapay zekâ araştırma asistanıdır, hakem değildir.