Yapay zekaya zor sorular: Birinci Bölüm
- İsak DUENYAS
- 3 gün önce
- 3 dakikada okunur

Günümüzde ChatGPT Gemini Copilot veya benzeri yapay zekâ yazılımlarını herhalde kullanmayan yok. Gerçekten hayatımızı çok kolaylaştıran bu teknoloji mükemmel tercümeler yapmaktan yeni yazılımlar geliştirmekten, şiirler hikayeler yazmaktan hatta resim ve videolar yapmaya kadar pek çok marifeti olan bir teknoloji. Ve hakkıyla bir devrim olarak görülüyor.
Doktorlardan açık fakla daha iyi teşhis koyan, pek çok konuda değme avukatlardan daha başarılı olan bu teknoloji gerçekten her şeye kadir mi?
Nasıl ki her eline bir Stradivarius keman alan virtüöz bir kemancı olmazsa, yapay zekanın sınırlarını bilmeyip kullandığımızda eline ilk defa bir keman alanın cızırtısını anımsatan sonuçlar alabiliriz. Nedeni?

Yapay zekâ bilgi yaratmaz. Kaynak olarak da kitaplar ve akademik yayınlar, internet siteleri – teknik bilgiler, soru-cevap platformları ve kamuya açık resmi belgeleri kullanır ve bunların güvenilirliğine ve yaygınlığına göre seçerek cevaplar hazırlar. Eğer kaynakların güvenilirliği aynı veya benzerse, yaygınlık önem kazanır.
Popüler yapay zekâ platformlarından ChatGPT ye – göreceğiniz gibi – içinden çıkamadığı çok basit bir taleple geldim: “Saat 15:30 u gösteren analog (akrep ve yelkovanlı) bir saat çiz. Basit değil mi? Altı yedi yaşındaki çocuk yapabilir. Yarattığı resim sağda.
“Beceremedin tekrar yap” dediğimde, buna benzer resimler üretmeye devam etti. Ve sonunda sordum “neden başarısızsın”? Verdiği cevap yukarıda anlattıklarımı teyidi gibi: “Eğer saat çizimi için istem yeterince teknik (örneğin: “akrep 105°, yelkovan 180° olacak şekilde çiz”) değilse, görsel modeli estetik ya da klişe bir kompozisyona yönelebiliyor”. İnternetteki saat resimlerinin çok büyük bir çoğunluğu estetik ve olası bir reklamda saatin logosunu gizlemediği için hep 10:10 u gösterir. (Not, 4 5 denemede hala saat 10:10 olunca vaz geçtim. Siz de deneyebilirsiniz)
Profesyonel hayatta da yapay zekayı kullanırım. Genelde bulmak istediğim spesifik bir bilgide Google’dan daha başarılı. Bazen mühendislik hesapları da yaptırırım. Bunlarda bile yanıldığı çok olur, dolayısıyla herhangi bir cevabı mutlak, Ladino deyimiyle “Ley de Moşe” olarak kabullenmek yanlıştır. Kendisine neden yanıldın diye sorduğunuzda açıkça “%100 güvenli bir hesap makinesi değilim”, ve insanların günlük hayatta düşünmeden bile yaptıkları sezgisel kontrolleri yapmaya imkânım yok, dahası “tahmini sonuç aralığını kestiremem” bile diyor. Yani hata sonucu bir kahvenin fiyatını örneğin 500 dolar olarak tespit etse bunun şaşırtıcı veya mantık dışı olabileceği “aklına gelmiyor(!). Tabi kullanıcı “hesapla ve sonucu kontrol et” demezse.
Yapay zekanın zayıf olduğu diğer bir konu, yoruma tartışmaya açık olan konular. Bu konularda yapay zekadan bekleyebileceğimiz mutlak bir kanaat değil, elindeki bilgiye ve tanıma göre bir analiz, varsa yorum alanı ve nihayet mutlak bir “evet/hayır” yanıtı ancak çok açık, net, belgelenmiş durumlarda olur.
Kısacası “Yapay zekâ dedi demek kesinlikle doğrudur” demek, tembelliğe gelip sağ duyumuzu ve analiz erkimizi bir yana bırakıp tamamen ona güvenirsen aynen acemi bir kemancının elindeki Stradivarius’tan sadece cızırtı çıkartması gibi fikir ve sonuçlar elde ederiz. Harika bir alet olduğu için, nasıl kullanılacağını bilince muhteşem konserler de verebiliriz.
Gelelim hepimizi yakından ilgilendiren güncel bir örneğe:
Alain Prasquier adlı bir meslektaş, burada çok kısaca özetlediğim bu konu üzerinde daha ciddi bir araştırma yapmış. Analiz ve yoruma açık “Gazze’de soykırım var mıdır” gibi tartışmalı bir konuyu yapay zekaya sormuş. Hatta tek birine değil, günümüzde kullanılan en popüler platformlara: Aldığı cevabı aşağıdaki tabloda özetliyorum:

Gördüğünüz gibi 5 tanesi evet veya herhalde evet derken, 3 tanesi cevap vermiyor 2 tanesi hayır, diyor ve biri de nötr ne evet ne hayır diyor. Bu da tartışmalı konularda yapay zekâya başvurmanın doğru olmadığının ispatı. Eğer “Ley de Moşe” olsa hepsi aynı cevabı verirdi.
Alain Prasquier bununla da yetinmemiş ve Nötr kalan ChatGPT’ye “saçmalıyorsun” demiş. ChatGPT de “neden böyle düşündüğünü açıkla” deyince aralarında ilginç bir sohbet gelişmiş. Bu ilginç sohbeti ve sonunda ChatGPT’nin “fikrini” nasıl değiştirdiğini gelecek yazıma saklıyorum.
Esenlikle.
İSAK DUENYAS
IYT dip not :
İfade edilen görüşler İYT web portalının editöryal politikasını yansıtmayabilir.
Yazarların düşünceleri sadece kendilerini bağlar.
Comments