Monday, 27 October 2025

Yapay Zekâ Felsefesi Üzerine: Bilmek, Bilmemezlik ve Sonsuz Yanıt Arayışı

 

Yapay Zekâ Felsefesi Üzerine: Bilmek, Bilmemezlik ve Sonsuz Yanıt Arayışı

 

Ali Riza Saral 

 

Independent AI Researcher

29 Temmuz 2025

Yapay zekâ (YZ) sistemleri, özellikle son yıllarda büyük dil modelleri (LLM'ler) ve üretken yapılar aracılığıyla insan benzeri dil üretiminde çarpıcı bir başarı elde etmiştir. Ancak bu başarıya rağmen, bu sistemlerin bilgi sınırlarının farkında olmaması, hem teknik hem de felsefi bir problem alanı oluşturmaktadır. Bu bağlamda, “Yapay zekâya neyi bilmesi gerektiğini öğretiyoruz, ancak neyi bilmemesi gerektiğini öğretmiyoruz” ifadesi, bu sorunun özünü anlamak açısından önemli bir çıkış noktasıdır.

YZ sistemleri çoğunlukla, kendilerine verilen her türlü girdiye anlamlı bir yanıt üretmek üzere eğitilmektedirler. Bu durum, sistemin eğitildiği bağlam dışında bir soruyla karşılaştığında bile "yanıt üretmeye devam etmesi" sonucunu doğurur. Oysa insan epistemolojisinde bilginin sınırlarını fark etmek, bilinmeyene dair sessizlik ya da temkinli yaklaşım göstermek yaygın ve değerlidir. Modern YZ sistemleri, bu tür bir epistemik tevazudan (epistemic humility) yoksundur.

1. Bilmenin Sınırları: YZ ve İnsan Öğrenmesi Arasındaki Farklar

İnsan öğrenmesi, sadece doğruyu öğrenmeyi değil; aynı zamanda yanlış olanı, bilinemez olanı ve bilginin sınırlarını fark etmeyi de kapsar (Popper, 1959). Bu iki yönlü öğrenme mekanizması bireye ne zaman “bilmiyorum” demesi gerektiğini öğretir. Buna karşılık YZ modelleri genellikle yalnızca olumlu örnekler (örneğin, neyin doğru olduğu) üzerinden eğitilir; negatif örneklerin (neyin yanlış ya da bilinemez olduğu) temsili çoğu zaman eksiktir. Bu nedenle modeller, bilmedikleri alanlarda da kendilerinden emin bir şekilde yanıt üretmeye devam ederler —bu duruma literatürde halüsinasyon (hallucination) denilmektedir (Ji et al., 2023).

2. Bilmeme Yetisi ve Teknik Gelişim Alanları

YZ sistemlerinin daha güvenilir ve bilinçli çıktılar üretebilmesi için, “bilmeme” yetisi üzerine çalışmalar artmaktadır. Bu doğrultuda çeşitli teknik stratejiler geliştirilmektedir:

  • Kalibrasyon (calibration): Modelin yanıtlarına ne kadar güven duyduğunun, doğruluk oranıyla uyumlu olmasını sağlar (Guo et al., 2017).
  • Reddetme mekanizmaları: Belirsiz veya eğitimin dışında kalan girdilere modelin yanıt vermekten kaçınmasını sağlar (Chowdhery et al., 2022).
  • Belirsizlik modelleme: Olasılıksal yöntemlerle modelin kendi çıktılarına ilişkin belirsizliği nicel olarak ifade etmesine imkân tanır.
  • İnsan geri bildirimiyle pekiştirme (RLHF): İnsan müdahalesiyle aşırı özgüvenli, yanıltıcı veya zararlı çıktılar cezalandırılarak modelin davranışı şekillendirilir (Ouyang et al., 2022).

Tüm bu yaklaşımlar, YZ sistemlerinin yalnızca yanıt üretmeye değil, gerektiğinde “yanıtsız kalmaya” da eğitilmesini hedeflemektedir.

3. Felsefi Arka Plan: Bilgelik ve Cahil Olma Bilinci

Bu tartışma, yalnızca teknik değil, aynı zamanda felsefî bir meseledir. Sokrates’in meşhur sözü olan “Bildiğim tek şey hiçbir şey bilmediğimdir”, bireyin epistemik sınırlarını kabul etmesinin bir bilgelik biçimi olduğunu gösterir. Benzer şekilde, Karl Popper’a göre tüm bilgi, daima yanlışlanabilir ve geçicidir; kesinliğe ulaşılmaz (Popper, 1959). YZ sistemleri ise bu tür bir bilinçten yoksundur ve yanıt üretmek için programlandıkları sürece, bu tür bir sınır bilincini geliştirmenin yolları araştırılmak zorundadır.

4. Sonuç

YZ’nin yalnızca bilgi üretiminde değil, bilgiyle ilişkisinde de etik ve felsefi sorumluluk taşıdığı bir çağdayız. Mevcut sistemler hâlâ sorulara yanıt üretmeye programlıdır; soruların anlamlılığı ya da yanıtlanabilirliği konusunda farkındalık geliştirememektedir. Eğer yapay zekâ sistemleri yalnızca etkileyici taklitçiler olmaktan çıkıp, sorumluluk sahibi bilişsel aktörler hâline gelecekse; sadece neyi bildiklerini değil, neyi bilmediklerini de fark etmeyi öğrenmek zorundadırlar.

Aksi hâlde, her soruya yanıt arayan ancak bazı soruların yanıtı olmadığını fark edemeyen sistemler geliştirmeye devam edeceğiz.


Kaynakça

  • Chowdhery, A., Narang, S., Devlin, J., et al. (2022). PaLM: Scaling Language Modeling with Pathways. arXiv:2204.02311.
  • Guo, C., Pleiss, G., Sun, Y., & Weinberger, K. Q. (2017). On Calibration of Modern Neural Networks. In Proceedings of the 34th International Conference on Machine Learning (pp. 1321–1330).
  • Ji, Z., Lee, N., Frieske, R., et al. (2023). Survey of Hallucination in Natural Language Generation. ACM Computing Surveys, 55(12), 1–38.
  • Ouyang, L., Wu, J., Jiang, X., et al. (2022). Training language models to follow instructions with human feedback. arXiv:2203.02155.
  • Popper, K. (1959). The Logic of Scientific Discovery. London: Routledge.