Monday, 27 October 2025

ChatBOT’ların Yanıt Verme Epistemolojisi Üzerine

 

ChatBOT’ların Yanıt Verme Epistemolojisi Üzerine

 

Ali Riza Saral 

 

Independent AI Researcher

28 Ağustos 2025

Yapay zekâ tabanlı sohbet robotları (chatBOT’lar), özellikle büyük dil modellerine (Large Language ModelsLLM) dayalı olanlar, son yıllarda yalnızca teknik açıdan değil, felsefi ve bilişsel açıdan da yoğun tartışmalara konu olmaktadır. Bu tartışmalardan biri de epistemolojiktir: Bir chatBOT “nasıl bilir” ve “cevap verme” eylemini hangi bilgi anlayışı üzerine kurar?

İnsani Bilme ile Yapay Yanıt Arasındaki Fark

Klasik epistemoloji, bilgiyi genellikle “gerekçelendirilmiş doğru inanç” (justified true belief) olarak tanımlar. Bir insan bir soruya cevap verdiğinde, çoğunlukla bir inanç taşır, bu inanç doğruluk iddiası içerir ve kişi çoğu zaman bunu gerekçelendirebilir. Örneğin bir doktor, bir teşhisi açıklarken hem deneyime hem literatüre hem de kanıta dayalı gerekçeler sunabilir.

ChatBOT’lar ise bambaşka bir zeminde çalışır. LLM tabanlı bir model, aslında yalnızca eğitim verilerindeki istatistiksel örüntüleri yakalar ve en olası sözcük dizisini üretir. Bu üretim, dışarıdan bakıldığında bir “cevap” gibi görünse de, epistemik açıdan bakıldığında bir inanç ya da gerekçelendirilmiş yargı değil, olası bir dil performansıdır. Dolayısıyla, chatBOT’ların yanıtları “bilgi” olmaktan çok “olasılıksal tahmin” niteliği taşır.

Epistemik Sorunlar: Doğruluk, Gerekçe, Kaynak

ChatBOT yanıtlarının epistemolojisinde üç temel sorun öne çıkar:

  1. Doğruluk: Üretilen yanıt, her zaman gerçeklikle uyuşmayabilir. “Halüsinasyon” diye adlandırılan bu olgu, modelin güvenle sunduğu ama aslında yanlış olan bilgilerin ortaya çıkmasına yol açar.
  2. Gerekçe: İnsanlar yanıtlarının ardında gerekçeler sunabilirken, chatBOT’ların gerekçeleri çoğunlukla sonradan eklenmiş, simüle edilmiş açıklamalar niteliğindedir. Yani bot, gerçekten o gerekçeyle o sonuca ulaşmaz; sadece gerekçe biçiminde dil üretir.
  3. Kaynak Gösterme: ChatBOT’ların büyük kısmı, ürettikleri yanıtların dayandığı somut kaynakları doğrudan gösteremez. Bu durum, epistemik güveni azaltır. Araştırma toplulukları, “kaynaklı yanıtlar” ya da “güvenilirlik göstergeleri” gibi çözümler geliştirmektedir.

HCI ve CHI Perspektifinden Epistemoloji

İnsan–Bilgisayar Etkileşimi (HCI) alanında ve özellikle CHI konferansında yürütülen araştırmalar, bu epistemik sorunların kullanıcı deneyimine nasıl yansıdığını inceler. Kullanıcılar çoğu zaman chatBOT yanıtlarını bilgi gibi algılar ve bu yanıtların kesinliğine yüksek güven atfeder. Bu noktada tasarımcıların sorumluluğu, epistemik sınırları şeffaf kılmaktır: örneğin, belirsizlik göstergeleri, kaynak bağlantıları veya “yanılabilirim” uyarılarıyla botun performatif bilgisini daha anlaşılır hale getirmek.

Bir diğer önemli konu, epistemik otorite meselesidir. Sağlık, hukuk veya eğitim gibi alanlarda kullanıcıların chatBOT’a aşırı güven duyması ciddi riskler taşır. HCI araştırmaları, bu güveni dengelemek için hibrit sistemler (chatBOT + insan uzman) ve yeni etkileşim tasarımları önermektedir.

Sonuç

ChatBOT’ların yanıt verme epistemolojisi, klasik insan bilgisinden temelde farklıdır: bilgi üretmezler, bilgi performe ederler. Bu farkı anlamak, hem kullanıcıların beklentilerini yönetmek hem de güvenilir etkileşim tasarımları geliştirmek için kritik önemdedir. Gelecekteki araştırmaların, chatBOT’ların epistemik sınırlarını daha görünür kılacak tasarım ilkelerine ve kullanıcıların eleştirel farkındalığını artıracak yöntemlere odaklanması beklenmektedir.


İlgilenen Okuyucular için Kaynaklar

  • Floridi, L. (2011). The Philosophy of Information. Oxford University Press.
  • Bender, E. M., & Gebru, T. et al. (2021). “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” Proceedings of FAccT ’21.
  • Dignum, V. (2019). Responsible Artificial Intelligence. Springer.
  • Suchman, L. (2007). Human-Machine Reconfigurations: Plans and Situated Actions. Cambridge University Press.
  • CHI Conference Proceedings (özellikle son yıllardaki chatbot tasarımı ve güvenilirlik çalışmaları).