ChatGPT, OpenAI’nin gelişmiş chatbot’unun beta sürümünü açıklamasından bu yana dünyayı kasıp kavurdu. OpenAI ayrıca iPhone’lar ve iPad’ler için ücretsiz bir ChatGPT uygulaması yayınlayarak aracı doğrudan tüketicilerin kullanımına sundu. Teknoloji sahnesine akın eden sohbet robotu ve diğer üretken yapay zeka araçları, insan benzeri yanıtları ve sorulara neredeyse anında yanıt vermesi nedeniyle birçok kullanıcıyı şaşkına çevirdi ve korkuttu.
İnsanlar, bu sohbet robotlarının “insani” gibi görünen yanıtlar sunmasına rağmen, eksik oldukları şeyin temel anlayış olduğunu fark edemiyorlar. ChatGPT, çok sayıda internet verisi (milyarlarca sayfalık metin) üzerinde eğitildi ve yanıtlarını yalnızca bu bilgilerden alıyor.
ChatGPT’nin eğitildiği ve Ortak Tarama olarak adlandırılan veriler, eğitim verileri söz konusu olduğunda neredeyse veriye erişebildiği kadar iyidir. Ancak botun belirli yanıtlara neden ve nasıl ulaştığını aslında hiçbir zaman bilemeyiz ve eğer yanlış bilgi üretiyorsa bunu kendinden emin bir şekilde söyleyecektir çünkü yanlış olduğunu bilmiyor. Kasıtlı ve ayrıntılı yönlendirmeler ve öncüllerle bile hem doğru hem de yanlış bilgi üretebilir.
ChatGPT’nin tavsiyelerini körü körüne takip etmenin maliyetli sonuçları
Gen AI’yı insan dilini taklit eden bir papağana benzetebiliriz. Bu aracın kendine özgü düşünceleri veya anlayışı olmaması iyi olsa da, pek çok insan onun tavsiyelerini düşünmeden dinliyor ve uyguluyor. Bir papağan konuştuğunda, kulak misafiri olduğu kelimeleri tekrarladığını bilirsiniz, bu yüzden buna biraz şüpheyle yaklaşırsınız. Kullanıcıların doğal dil modellerine aynı dozda şüphecilikle yaklaşması gerekir. Herhangi bir chatbotun “tavsiyesini” körü körüne takip etmenin sonuçları maliyetli olabilir.
Stanford Üniversitesi’ndeki araştırmacılar tarafından yakın zamanda yapılan bir araştırma, “ ChatGPT’nin Davranışı Zaman İçinde Nasıl Değişiyor? ”, botun basit bir matematik problemini çözmedeki doğruluğunun Mart 2023’te %98 olduğunu, ancak Haziran 2023’te büyük ölçüde yalnızca %2’ye düştüğünü fark etti. Bu sonuç, güvenilmezliğinin altını çiziyor. Bu araştırmanın temel bir matematik problemi üzerinde olduğunu unutmayın; matematiğin veya konunun daha karmaşık olup olmadığını ve kullanıcının bunun yanlış olduğunu kolayca doğrulayamayacağını düşünün.
- Ya kodsa ve kritik hataları varsa?
- Peki ya bir grup röntgende kanser olup olmadığına dair tahminler ise?
- Sizin toplum için değerinizi tahmin eden bir makineye ne dersiniz?
Bir kişi ChatGPT’ye bir soru soruyorsa, büyük olasılıkla konunun uzmanı değildir ve bu nedenle doğru ve yanlış bilgiler arasındaki farkı bilemeyecektir. Kullanıcılar cevabın doğruluğunu kontrol etmek için zaman ayırmayabilir ve yanlış verilere dayanarak kararlar verebilirler.
Yalnızca eğitim verileri kadar iyi
Herhangi bir öğrenme modeli gibi ChatGPT de “bilgisini” internet verilerinden alır. Çarpık veya eksik eğitim verileri, paylaştığı bilgileri etkiler ve bu da bu araçların beklenmedik veya çarpık sonuçlar üretmesine neden olabilir. Dahası yapay zekanın verdiği tavsiyeler, eğitim verileri kadar eskidir. ChatGPT’nin durumu göz önüne alındığında, 2021’den sonraki bilgilere dayanan hiçbir şey dikkate alınmaz. Bu, sürekli gelişen ve inanılmaz derecede dinamik olan siber güvenlik alanı gibi bir endüstri için çok büyük bir husustur.
Örneğin, Google kısa süre önce üst düzey alan adı .zip’i halka açarak kullanıcıların .zip alan adlarını kaydettirmesine olanak tanıdı. Ancak siber suçlular, kimlik avı kampanyalarında zaten .zip alan adlarını aktif oalarak kullanıyorlardı. Artık kullanıcıların bu tür kimlik avı girişimlerini tespit etmek ve bunlardan kaçınmak için yeni stratejilere ihtiyacı olacak.
Ancak bu çok yeni olduğundan, bu girişimleri belirlemede etkili olabilmek için bir yapay zeka aracının Ortak Taramanın üzerindeki ek veriler üzerinde eğitilmesi gerekir. Elimizdekine benzer yeni bir veri seti oluşturmak, üretilen metnin çokluğu nedeniyle neredeyse imkansızdır ve makineye öğretmek için bir makine kullanmanın felakete davetiye çıkaracağını biliyoruz. Verilerdeki önyargıları güçlendirir ve yanlış öğeleri yeniden uygular.
İnsanların ChatGPT’nin tavsiyelerine uyma konusunda dikkatli olması gerektiği gibi, sektörün de siber suçluların bunu kullanma şekliyle mücadele edecek şekilde gelişmesi gerekiyor. Kötü aktörler halihazırda daha inandırıcı kimlik avı e-postaları ve dolandırıcılıklar yaratıyor ve bu, buzdağının yalnızca görünen kısmı. Teknoloji devlerinin, etik kullanıcıların dikkatli, sorumlu olmasını ve yapay zeka silahlanma yarışında lider kalmasını sağlamak için birlikte çalışması gerekiyor.