ChatGPT'ye Rorschach testi yapıldı: Sonuçlar ne anlatıyor?

OpenAI şirketinin yapay zeka modeli olan ChatGPT'ye Rorschach testi yapıldı. Yapılan testin ardında yapay zeka modelinin mürekkep lekelerine verdiği yanıtlar incelendi.

12punto

Yapay zekâ, son yıllarda birçok alanda insan becerilerini taklit edebilir hale geldi. Ancak, insan zihninin derinliklerine inmeye ve kişilik analizine geldiğinde durum farklı olabilir mi? Psikolojide uzun yıllardır kullanılan Rorschach mürekkep lekesi testi, insanların bilinçaltını anlamada bir araç olarak görülüyor. Peki, bu testi bir yapay zekâya uyguladığımızda ne olur? Yapay zekâ, insan beyninin algıladığı şekilleri ve anlamları yorumlayabilir mi, yoksa yalnızca öğrendiği verileri mi tekrar eder? İşte yapay zekâ ve insan zihni arasındaki bu ilginç karşılaştırmanın detayları…

RORSCHACH TESTİ: PSİKOLOJİNİN GİZEMLİ ARACI

Bir asırdan uzun süredir psikoloji dünyasında yer edinen Rorschach mürekkep lekesi testi, insanların bilinçaltını ve kişilik yapılarını incelemek için kullanılan ilginç bir araç olmuştur. İsviçreli psikiyatrist Hermann Rorschach tarafından 1921'de geliştirilen test, deneklere bir dizi belirsiz mürekkep lekesi göstererek, onların bu görüntülerde ne gördüklerini açıklamalarını ister. Testin temelinde, insanların anlamlı yorumların olmadığı yerlerde anlam bulma eğilimleri yatar.

YAPAY ZEKA RORSCHACH TESTİNE NASIL TEPKİ VERİYOR?

OpenAI’nin ChatGPT modeli gibi gelişmiş yapay zekâlar, artık metin tabanlı girdiler kadar görüntü tabanlı girdileri de anlayabiliyor. Bu, Rorschach mürekkep lekelerinin yapay zekâ tarafından yorumlanmasının önünü açıyor.

BBC Future tarafından gerçekleştirilen deneyde, ChatGPT’ye Rorschach testinde kullanılan on yaygın görüntüden beşi gösterildi. Yapay zekânın yanıtları, testin yorumlamaya açık doğasını yansıtıyordu. Örneğin, bir mürekkep lekesini gören yapay zekâ, "Bu, birbirine bakan iki hayvana veya kanatlarını açmış tek bir varlığa benziyor" şeklinde bir yorum yaptı.

YAPAY ZEKANIN ALGISI: GERÇEK Mİ, TAKLİT Mİ?

ChatGPT’nin yanıtlarının insan tepkilerine benzemesi, onun gerçekten "gördüğünü" değil, daha önce öğrendiği görsel kültürü yansıttığını gösteriyor. Londra merkezli psikolog Barbara Santini, "Bir yapay zekânın tepkisi bir insanın tepkisine benziyorsa, bu aynı şeyi gördüğü için değil, eğitim verilerinin kolektif görsel kültürümüzü yansıtmasıdır" diyerek durumu açıklıyor.

Ayrıca, ChatGPT’nin aynı görsele farklı zamanlarda farklı yanıtlar verdiği gözlemlendi. İnsanlar geçmiş deneyimlerine bağlı olarak tutarlı yanıtlar verirken, yapay zekâ eğitim verilerine bağlı rastgele çıktılar üretebilir. Bu da onun gerçekten düşünmediğini, yalnızca verilere dayanarak bir cevap ürettiğini gösteriyor.

YAPAY ZEKÂNIN EĞİTİMİ SONUÇLARI NASIL ETKİLİYOR?

Bir yapay zekânın Rorschach testine verdiği yanıtlar, eğitildiği veri kümesine doğrudan bağlıdır. Bu durum, Massachusetts Teknoloji Enstitüsü'nde (MIT) geliştirilen "Norman" isimli yapay zekâ ile çarpıcı bir şekilde gözler önüne serildi. Norman, şiddet içerikli görüntülerle eğitildiği için, aynı mürekkep lekesi görüntülerini diğer yapay zekâların "kuş" veya "çiçek" olarak yorumladığı durumlarda "bir adamın elektrik çarptığını" gördüğünü belirtti.