Güney Afrika İletişim ve Dijital Teknolojiler Bakanlığı tarafından hazırlanan taslak, ülkenin yapay zeka alanındaki düzenleyici çerçevesini belirlemeyi amaçlıyordu. Ancak metinde yer alan bazı akademik alıntıların gerçekte var olmadığı tespit edildi.

Yapay zekayla öğreniyor muyuz, yoksa sadece üretiyor muyuz?
"Sadece teknik bir hata değil"
Bakan Solly Malatsi, taslakta yer alan 67 akademik kaynaktan en az 6’sının doğrulanamadığını ve bu referansların “yapay zeka halüsinasyonu” olarak tanımlanan, gerçekte var olmayan içeriklere dayandığını açıkladı. Bunun üzerine taslak geri çekildi ve inceleme başlatıldı.
Malatsi, yaşananların yalnızca teknik bir hata olmadığını, kamu politikalarının güvenilirliği açısından ciddi bir sorun teşkil ettiğini vurguladı. Yapay zeka tarafından üretilen içeriklerin yeterli insan denetiminden geçmeden politika metinlerine dahil edilmesinin kabul edilemez olduğunu belirtti.
Statement on the integrity of the Draft National Artificial Intelligence Policy
— SollyMalatsi (@SollyMalatsi) April 26, 2026
Following revelations that the Draft National Artificial Intelligence Policy published for public comment contains various fictitious sources in its reference list, we initiated internal questions…

Dijital sağlık vaadi: Yapay zeka terapisti kimin için?
Düzenleme hedefleniyordu
Taslak metnin, ülkede yapay zeka kullanımını düzenlemek üzere etik ilkeler belirlenmesini ve denetleyici mekanizmalar kurulmasını öngördüğü ifade ediliyordu. Ancak referansların güvenilirliğine ilişkin sorunlar, metnin bütünlüğünü tartışmalı hale getirdi.
Uzmanlara göre üretken yapay zeka araçlarının metin üretiminde giderek yaygınlaşması, özellikle akademi ve kamu yönetiminde yeni riskler yaratıyor. Bu sistemler, doğruluğu garanti edilmiş bilgi üretmek yerine olasılıklara dayalı metinler oluşturduğu için, gerçekte var olmayan ancak ikna edici görünen kaynaklar üretebiliyor.

Kürtçe öğreniminde yapay zeka dönemi: Kurdolingo yayında
Veriler artan riske işaret ediyor
Son yıllarda yapılan çalışmalar da bu riski doğruluyor. 2025 yılında yayımlanan akademik makalelerin yüzde 2,5’inden fazlasında en az bir şüpheli alıntı tespit edilirken, bu oranın bir önceki yıl yüzde 0,3 seviyesinde olduğu belirtiliyor.
Yaşanan gelişme, yalnızca Güney Afrika’daki bir politika taslağına ilişkin bir sorun olarak değil, kamu yönetiminde yapay zeka kullanımının nasıl denetlenmesi gerektiğine dair daha geniş bir tartışmanın parçası olarak değerlendiriliyor.
Uzmanlar, özellikle kamu yararını doğrudan etkileyen politika metinlerinde şeffaflık, doğrulama ve insan denetiminin zorunlu olduğunu vurguluyor.

Larry Lohmann: Yapay zekâ fazlasıyla dağınık ve çelişkili bir kumar
Kaynak: ındependent.uk
(NÖ)

