OpenAI şirketinin ChatGPT adlı yapay zeka sohbet botu, kullanıcılar arasında giderek daha popüler hale geliyor. Özellikle öğrenciler ve iş profesyonelleri, işlerini hızlandırmak veya ödevlerinde yardımcı olmak için ChatGPT gibi birçok farklı botu tercih ediyor. Ancak, yeni bir araştırma ChatGPT'nin bilgisayar programlama sorularını yanıtlama konusunda tam olarak güvenilir olmadığını ortaya koydu.
Purdue Üniversitesi'nde gerçekleştirilen araştırma, bu ayın başlarında Hawaii'deki Bilgisayar-İnsan Etkileşimi Konferansı'nda sunuldu. Araştırmacılar, yazılım geliştiricileri ve programcılar için bir soru-cevap platformu olan Stack Overflow'dan alınan 517 programlama sorusunu ChatGPT'nin yanıtlarıyla karşılaştırdılar.
Araştırma, ChatGPT'nin programlama sorularının %52'sinden fazlasına yanlış bilgiler içeren yanıtlar verdiğini buldu. Ayrıca, verdiği cevapların %77'sinin gereksiz yere uzun olduğu ortaya çıktı. Bununla birlikte, katılımcılar, ChatGPT'nin yanıtlarını %35 oranında tercih ettiler çünkü dil kullanımının iyi ve kapsamlı olduğunu düşündüler.
Araştırmaya katılan programcılar, ChatGPT'nin yanıtlarındaki yanlış bilgilerin %39'unu fark edemediler. Bu da ChatGPT'nin doğru görünen yanıtlarının bazen yanıltıcı olabileceğini gösteriyor. Araştırma, bu tür araçların kullanıcılarına sunduğu riskleri ortaya koyarak dikkat çekti.
Büyük teknoloji şirketleri, kullanıcılara en güvenilir sohbet botlarını sunmak için milyarlarca dolarlık yatırımlar yapmaya devam ediyor. Ancak, ChatGPT gibi botların sadece programlama alanında değil, diğer alanlarda da yanıltıcı olabileceği gerçeği önemli bir sorun olarak karşımıza çıkıyor. Google'un yeni yapay zeka destekli arama motorunun bile güvenilir olmayan kaynaklardan aldığı bilgileri doğru bilgi olarak sunması, bu alandaki zorlukları gösteriyor.