Yapay Zekâ Felsefesi Üzerine: Bilmek,
Bilmemezlik ve Sonsuz Yanıt Arayışı
Independent AI Researcher
29 Temmuz 2025
Yapay zekâ (YZ) sistemleri,
özellikle son yıllarda büyük dil modelleri (LLM'ler) ve üretken yapılar
aracılığıyla insan benzeri dil üretiminde çarpıcı bir başarı elde etmiştir.
Ancak bu başarıya rağmen, bu sistemlerin bilgi sınırlarının farkında olmaması,
hem teknik hem de felsefi bir problem alanı oluşturmaktadır. Bu bağlamda,
“Yapay zekâya neyi bilmesi gerektiğini öğretiyoruz, ancak neyi bilmemesi
gerektiğini öğretmiyoruz” ifadesi, bu sorunun özünü anlamak açısından önemli
bir çıkış noktasıdır.
YZ sistemleri çoğunlukla,
kendilerine verilen her türlü girdiye anlamlı bir yanıt üretmek üzere
eğitilmektedirler. Bu durum, sistemin eğitildiği bağlam dışında bir soruyla
karşılaştığında bile "yanıt üretmeye devam etmesi" sonucunu doğurur.
Oysa insan epistemolojisinde bilginin sınırlarını fark etmek, bilinmeyene dair
sessizlik ya da temkinli yaklaşım göstermek yaygın ve değerlidir. Modern YZ
sistemleri, bu tür bir epistemik tevazudan (epistemic
humility) yoksundur.
1. Bilmenin Sınırları: YZ ve İnsan
Öğrenmesi Arasındaki Farklar
İnsan öğrenmesi, sadece doğruyu
öğrenmeyi değil; aynı zamanda yanlış olanı, bilinemez olanı ve bilginin
sınırlarını fark etmeyi de kapsar (Popper, 1959). Bu iki yönlü öğrenme
mekanizması bireye ne zaman “bilmiyorum” demesi gerektiğini öğretir. Buna
karşılık YZ modelleri genellikle yalnızca olumlu örnekler (örneğin,
neyin doğru olduğu) üzerinden eğitilir; negatif örneklerin (neyin yanlış ya da
bilinemez olduğu) temsili çoğu zaman eksiktir. Bu nedenle modeller,
bilmedikleri alanlarda da kendilerinden emin bir şekilde yanıt üretmeye devam
ederler —bu duruma literatürde halüsinasyon (hallucination)
denilmektedir (Ji et al., 2023).
2. Bilmeme Yetisi ve Teknik Gelişim
Alanları
YZ sistemlerinin daha güvenilir ve
bilinçli çıktılar üretebilmesi için, “bilmeme” yetisi üzerine çalışmalar
artmaktadır. Bu doğrultuda çeşitli teknik stratejiler geliştirilmektedir:
- Kalibrasyon (calibration): Modelin yanıtlarına ne kadar
güven duyduğunun, doğruluk oranıyla uyumlu olmasını sağlar (Guo et al.,
2017).
- Reddetme mekanizmaları: Belirsiz veya eğitimin dışında
kalan girdilere modelin yanıt vermekten kaçınmasını sağlar (Chowdhery et
al., 2022).
- Belirsizlik modelleme: Olasılıksal yöntemlerle modelin
kendi çıktılarına ilişkin belirsizliği nicel olarak ifade etmesine imkân
tanır.
- İnsan geri bildirimiyle pekiştirme (RLHF): İnsan müdahalesiyle aşırı
özgüvenli, yanıltıcı veya zararlı çıktılar cezalandırılarak modelin
davranışı şekillendirilir (Ouyang et al., 2022).
Tüm bu yaklaşımlar, YZ sistemlerinin
yalnızca yanıt üretmeye değil, gerektiğinde “yanıtsız kalmaya” da eğitilmesini
hedeflemektedir.
3. Felsefi Arka Plan: Bilgelik ve
Cahil Olma Bilinci
Bu tartışma, yalnızca teknik değil,
aynı zamanda felsefî bir meseledir. Sokrates’in meşhur sözü olan “Bildiğim tek şey hiçbir şey bilmediğimdir”,
bireyin epistemik sınırlarını kabul etmesinin bir bilgelik biçimi olduğunu
gösterir. Benzer şekilde, Karl Popper’a göre tüm bilgi, daima yanlışlanabilir
ve geçicidir; kesinliğe ulaşılmaz (Popper, 1959). YZ sistemleri ise bu tür bir
bilinçten yoksundur ve yanıt üretmek için programlandıkları sürece, bu tür bir
sınır bilincini geliştirmenin yolları araştırılmak zorundadır.
4. Sonuç
YZ’nin yalnızca bilgi üretiminde
değil, bilgiyle ilişkisinde de etik ve felsefi sorumluluk taşıdığı bir
çağdayız. Mevcut sistemler hâlâ sorulara yanıt üretmeye programlıdır; soruların
anlamlılığı ya da yanıtlanabilirliği konusunda farkındalık geliştirememektedir.
Eğer yapay zekâ sistemleri yalnızca etkileyici taklitçiler olmaktan çıkıp,
sorumluluk sahibi bilişsel aktörler hâline gelecekse; sadece neyi bildiklerini
değil, neyi bilmediklerini de fark etmeyi öğrenmek zorundadırlar.
Aksi hâlde, her soruya yanıt arayan
ancak bazı soruların yanıtı olmadığını fark edemeyen sistemler geliştirmeye
devam edeceğiz.
Kaynakça
- Chowdhery,
A., Narang, S., Devlin, J., et al. (2022). PaLM: Scaling Language
Modeling with Pathways. arXiv:2204.02311.
- Guo,
C., Pleiss, G., Sun, Y., & Weinberger, K. Q. (2017). On Calibration of Modern Neural Networks. In Proceedings of the 34th International Conference on
Machine Learning (pp. 1321–1330).
- Ji,
Z., Lee, N., Frieske, R., et al. (2023). Survey of
Hallucination in Natural Language Generation. ACM Computing
Surveys, 55(12), 1–38.
- Ouyang,
L., Wu, J., Jiang, X., et al. (2022). Training language
models to follow instructions with human feedback.
arXiv:2203.02155.
- Popper,
K. (1959). The Logic of Scientific Discovery. London:
Routledge.
