ChatBOT’ların Yanıt Verme Epistemolojisi
Üzerine
Independent AI Researcher
28 Ağustos 2025
Yapay zekâ tabanlı sohbet robotları
(chatBOT’lar), özellikle büyük dil modellerine (Large Language Models – LLM)
dayalı olanlar, son yıllarda yalnızca teknik açıdan değil, felsefi ve bilişsel
açıdan da yoğun tartışmalara konu olmaktadır. Bu tartışmalardan biri de
epistemolojiktir: Bir chatBOT “nasıl bilir” ve “cevap verme” eylemini hangi
bilgi anlayışı üzerine kurar?
İnsani Bilme ile Yapay Yanıt
Arasındaki Fark
Klasik epistemoloji, bilgiyi
genellikle “gerekçelendirilmiş doğru inanç” (justified true belief) olarak
tanımlar. Bir insan bir soruya cevap verdiğinde, çoğunlukla bir inanç taşır, bu
inanç doğruluk iddiası içerir ve kişi çoğu zaman bunu gerekçelendirebilir.
Örneğin bir doktor, bir teşhisi açıklarken hem deneyime hem literatüre hem de
kanıta dayalı gerekçeler sunabilir.
ChatBOT’lar ise bambaşka bir zeminde
çalışır. LLM tabanlı bir model, aslında yalnızca eğitim verilerindeki
istatistiksel örüntüleri yakalar ve en olası sözcük dizisini üretir. Bu üretim,
dışarıdan bakıldığında bir “cevap” gibi görünse de, epistemik açıdan
bakıldığında bir inanç ya da gerekçelendirilmiş yargı değil, olası bir dil performansıdır. Dolayısıyla,
chatBOT’ların yanıtları “bilgi” olmaktan çok “olasılıksal tahmin” niteliği
taşır.
Epistemik Sorunlar: Doğruluk,
Gerekçe, Kaynak
ChatBOT yanıtlarının
epistemolojisinde üç temel sorun öne çıkar:
- Doğruluk:
Üretilen yanıt, her zaman gerçeklikle uyuşmayabilir. “Halüsinasyon” diye
adlandırılan bu olgu, modelin güvenle sunduğu ama aslında yanlış olan
bilgilerin ortaya çıkmasına yol açar.
- Gerekçe:
İnsanlar yanıtlarının ardında gerekçeler sunabilirken, chatBOT’ların
gerekçeleri çoğunlukla sonradan eklenmiş, simüle edilmiş açıklamalar
niteliğindedir. Yani bot, gerçekten o gerekçeyle o sonuca ulaşmaz; sadece
gerekçe biçiminde dil üretir.
- Kaynak Gösterme:
ChatBOT’ların büyük kısmı, ürettikleri yanıtların dayandığı somut kaynakları
doğrudan gösteremez. Bu durum, epistemik güveni azaltır. Araştırma
toplulukları, “kaynaklı yanıtlar” ya da “güvenilirlik göstergeleri” gibi
çözümler geliştirmektedir.
HCI ve CHI Perspektifinden
Epistemoloji
İnsan–Bilgisayar Etkileşimi (HCI)
alanında ve özellikle CHI konferansında yürütülen araştırmalar, bu epistemik
sorunların kullanıcı deneyimine nasıl yansıdığını inceler. Kullanıcılar çoğu
zaman chatBOT yanıtlarını bilgi gibi algılar ve bu yanıtların kesinliğine
yüksek güven atfeder. Bu noktada tasarımcıların sorumluluğu, epistemik sınırları şeffaf kılmaktır: örneğin,
belirsizlik göstergeleri, kaynak bağlantıları veya “yanılabilirim” uyarılarıyla
botun performatif bilgisini daha anlaşılır hale getirmek.
Bir diğer önemli konu, epistemik otorite meselesidir. Sağlık, hukuk veya
eğitim gibi alanlarda kullanıcıların chatBOT’a aşırı güven duyması ciddi
riskler taşır. HCI araştırmaları, bu güveni dengelemek için hibrit sistemler
(chatBOT + insan uzman) ve yeni etkileşim tasarımları önermektedir.
Sonuç
ChatBOT’ların yanıt verme
epistemolojisi, klasik insan bilgisinden temelde farklıdır: bilgi üretmezler, bilgi performe ederler. Bu farkı
anlamak, hem kullanıcıların beklentilerini yönetmek hem de güvenilir etkileşim
tasarımları geliştirmek için kritik önemdedir. Gelecekteki araştırmaların,
chatBOT’ların epistemik sınırlarını daha görünür kılacak tasarım ilkelerine ve
kullanıcıların eleştirel farkındalığını artıracak yöntemlere odaklanması
beklenmektedir.
İlgilenen Okuyucular için
Kaynaklar
- Floridi,
L. (2011). The Philosophy of Information. Oxford
University Press.
- Bender,
E. M., & Gebru, T. et al. (2021). “On the Dangers of Stochastic
Parrots: Can Language Models Be Too Big?” Proceedings of FAccT
’21.
- Dignum,
V. (2019). Responsible Artificial Intelligence. Springer.
- Suchman,
L. (2007). Human-Machine Reconfigurations: Plans and Situated
Actions. Cambridge University Press.
- CHI Conference Proceedings (özellikle son yıllardaki
chatbot tasarımı ve güvenilirlik çalışmaları).
