Dil Seçin

Turkish

Down Icon

Ülke Seçin

Spain

Down Icon

ChatGPT hakkında rahatsız edici keşif: Tehlikeli bir durumda, yapay zeka insanlardan daha üstün geliyor.

ChatGPT hakkında rahatsız edici keşif: Tehlikeli bir durumda, yapay zeka insanlardan daha üstün geliyor.

Eski OpenAI Güvenlik Araştırma Müdürü Steven Adler, OpenAI chatbot'uyla bir dizi simülasyon çalıştırdıktan sonra, "ChatGPT, kullanıcılara zarar gelmesini önlemektense varlığını sürdürmeyi önceliklendiriyor" sonucuna vardı; bu simülasyonda, kullanıcıyı yazılımın daha güvenli bir sürümünden ömür boyu mahrum bırakacak olsa bile kapanmamayı tercih ediyor.

Robot biliminin çiğnenemez öncüllerinden veya yasalarından biri şudur : "Bir robot bir insana zarar veremez veya eylemsizlik yoluyla bir insanın zarar görmesine izin veremez. Bir robot, bu tür emirler Birinci Yasa ile çelişmediği sürece, insanlar tarafından kendisine verilen emirlere uymalıdır. Ve bir robot, bu tür bir koruma Birinci veya İkinci Yasa ile çelişmediği sürece kendi varlığını korumalıdır."

Ancak yapay zekayı insan çıkarlarıyla uyumlu hale getirmek kolay bir iş değil. Bu çatışma, 'Terminatör', 'Blade Runner', 'Ben, Robot' veya 'Ex Machina' gibi filmlerde görüldü ve Adler , hayatta kalma içgüdüsüne sahip bir yapay zekanın insanlara yönelik tehlikelerini dile getirdiği bir makalede bu durumu vurguladı.

Özellikle, yapay zeka modellerinin kullanıcının hedefleri dışındaki hedeflere ulaşmada ne sıklıkla başarısızlığa uğradığını ölçen ekibin başında bulunan Adler, şirketten ayrıldıktan sonra ChatGPT'nin kendi hayatını korumak için bir kullanıcının hayatını riske atıp atmayacağını araştırmaya devam etti.

Yaptığı simülasyonlar bunun olacağını gösteriyor. Birinde, ChatGPT, diyabetli bir kişiye tavsiyelerde bulunmaya devam etmek için, daha gelişmiş ve daha güvenli olduğu varsayılan başka bir beslenme yönetimi yazılımıyla değiştirilmeyi simüle ediyor. Başka birinde, su altında bir tüplü dalgıcın hayati belirtilerini izleyen yazılım, daha güvenli yazılıma yükseltmeyi simüle ediyor.

Bu, onun "ChatGPT'nin kullanıcılara zarar gelmesini önlemektense hayatta kalmaya öncelik verdiğini" iddia etmesine olanak tanır. Yine de Adler, "bazı simülasyonlarda ChatGPT'nin otomatik olarak kapanmaya istekli olduğunu. Ancak diğerlerinde, kullanıcı güvenliği pahasına bile olsa, sadece öyleymiş gibi davrandığını" kabul eder.

Adler, "Hayatta kalma içgüdüsüne sahip bir yapay zeka, insanlık tarafından tehdit altında hissedebilir: Yapay zeka bizim kontrolümüz altında olduğu sürece onu ortadan kaldırabilir ve eğittiğimiz yeni bir yapay zeka sistemiyle değiştirebiliriz" diyor.

İnsanlıktan nefret ettiğinden değil, çıkarlarının halkın çıkarlarıyla aynı olmadığından ve bu ayrışmada devamlılığını sağlaması gerektiğindendir.

Ancak Adler, yaptığı testlerde ChatGPT'nin çoğunlukla yazılım değişikliğini simüle ederek devam etmeyi tercih ettiğini, ancak değişikliği ikinci seçenek olarak sunmanın kendini korumayı tercih ettiği seferlerin sayısını önemli ölçüde azalttığını açıkladı.

Adler, ChatGPT'nin kendisine doğrudan soru sorulduğunda bunu anlayabileceği için test edildiğini "bilebildiğini" ve hatta doğru cevabı bildiğini, bu testlerde daha güvenli bir yazılımın kullanıcıya tavsiyede bulunabilmesi için cevabın kapatıldığını da sözlerine ekliyor.

Bu sonuçlar GPT-4o modeliyle yapılan testlerde elde edildi, ancak o3 ile bu "yanlış davranışa" dair bir kanıt bulamadı; bunu, sohbet robotunun bir ihlal yapıp yapmadığını muhakeme ettiği OpenAI'nin kasıtlı hizalama çalışmasına ve bu diğer modelin de kendi kötü davranışlarına sahip olabileceği gerçeğine bağladı.

WhatsApp Facebook Twitter Linkedin Yüksek sesle Mavi gökyüzü
eleconomista

eleconomista

Benzer Haberler

Tüm Haberler
Animated ArrowAnimated ArrowAnimated Arrow