Dijital dönüşümün merkezine yerleşen yapay zeka araçları, iş dünyasında karar destek mekanizması olarak kullanılmaya başlansa da akademik veriler ihtiyatlı olunması gerektiğini söylüyor. WSU Carson İşletme Fakültesi’nden Doç. Dr. Mesut Çiçek ve ekibi, ChatGPT’yi bilimsel makalelerden alınan yüzlerce hipotez ile 10’ar kez test ederek sistemin 'doğruluk' ve 'tutarlılık' karnesini çıkardı.
'ŞANS' FAKTÖRÜ HALA YÜKSEK
Araştırma verilerine göre, 2024 yılında yüzde 76,5 olan doğru cevap oranı, 2025’te güncellenen modellerle birlikte yüzde 80’e yükseldi. Ancak araştırmacılar, yüzde 50 olan rastgele tahmin ihtimalini hesaba kattığında, yapay zekanın etkinliğinin şans faktörünün sadece yüzde 60 üzerinde kaldığını saptadı.
Doç. Dr. Mesut Çiçek: 'Sadece doğruluktan bahsetmiyoruz, tutarsızlıktan da bahsediyoruz. Aynı soruyu 10 kez sorduğumuzda ChatGPT yalnızca yüzde 73 oranında tutarlı yanıtlar verdi. Bazı durumlarda beş kez 'doğru' dediği bir iddiaya, beş kez 'yanlış' diyebiliyor.'
YANLIŞI AYIRT ETMEKTE ZORLANIYOR
Çalışmanın en çarpıcı bulgusu, yapay zekanın yanlış ifadeleri etiketleme konusundaki başarısızlığı oldu. Sistem, bilimsel olarak yanlış olan hipotezleri sadece yüzde 16,4 oranında doğru tespit edebildi. Bu durum, özellikle karmaşık işletme ve pazarlama senaryolarında yapay zekanın 'yanlış yönlendirme' riskini de beraberinde getiriyor.
İŞ DÜNYASI İÇİN 'DİJİTAL ŞÜPHECİLİK' ÖNERİSİ
Rutgers Business Review’da yayınlanan bulgular, yapay zekanın akıl yürütme becerisi ile gerçek bir kavramsal anlayış arasındaki devasa farka işaret ediyor. Araştırma ekibi, iş liderlerine ve yöneticilere şu kritik uyarılarda bulunuyor:
"Yapay zeka araçları dünyayı bizim anladığımız gibi anlamıyor, bir beyinleri yok" diyen Çiçek, yapay genel zekanın (AGI) beklenenden çok daha uzakta olabileceğini vurguluyor. 2024 yılında yapılan ulusal bir anketin, tüketicilerin 'yapay zeka odaklı' pazarlanan ürünlere daha mesafeli yaklaştığını ortaya koyması da bu akademik bulguları pazar verileriyle destekliyor.