Yapay zekanın günümüzdeki süratli gelişimi çoğumuzu hem heyecanlandırıyor hem de biraz ürkütüyor. Telefonlarımızda, bilgisayarlarımızda bize yardımcı olan bu sistemler aslında ne kadar inançlı? Her gün yeni bir teknoloji haberi okurken aklımıza takılan bu soru aslında bilim insanlarının da gündeminde. Zira yapay zeka sadece akıllı bir araç değil, giderek kendi kararlarını verebilecek bir hale geliyor. İşte tam da bu noktada tehlike çanları çalmaya başlıyor.
Kaynak 1, Kaynak 2, Kaynak 3
Bilim insanlarının korkusu: Yapay zekanın kendi amaçları olabilir.

MIT’den Max Tegmark ve Montréal Üniversitesi’nden Yoshua Bengio, yapay zekanın casus biçiminde geliştirildiğini ve bunun riskli bir yol olduğunu söylüyor. Bengio’ya nazaran, beşerler üzere düşünen ve hatta kendi gayelerini belirleyen bir yapay zeka yaratmak, yeni bir zeki tıp yaratmak üzere ve bu cinsin bize uyumlu olup olmayacağını bilmek mümkün değil.
Sistemler daha akıllandıkça kendi kendilerini müdafaa içgüdüsü geliştirebilir ve bu noktada beşerlerle müsabakaya başlarlarsa işimiz sıkıntı olabilir. Bengio, “Bunu nitekim istiyor muyuz?” diye sorarken, senaryonun hiç de iç açıcı olmadığının altını çizmiş.
Google’ın eski CEO’su Eric Schmidt, yapay zekanın yanlış ellerde tehlikeli bir silaha dönüşebileceğini söylüyor.

Ona nazaran Kuzey Kore, İran ya da Rusya üzere ülkeler yapay zekayı biyolojik silah geliştirmek yahut temiz insanlara ziyan vermek için kullanabilir. Schmidt, bu teknolojinin süratli gelişmesinin, makûs niyetli bireylerin onu kolay kolay adapte etmesine yol açabileceğini belirtiyor. Bilhassa biyolojik akın senaryoları, onu en çok endişelendiren hususların başında geliyor.
Schmidt’in uyardığı bir öbür nokta da devletlerin ve şirketlerin bu teknolojiyi denetlemede yetersiz kalması. Yapay zeka hakikat ellerde şahane tahliller üretirken, yanlış ellerde tam manasıyla bir felakete dönüşebilir. Bilhassa hükümetlerin makus niyetli kullanımları engelleyecek düzenlemeler yapmaması, riski artırıyor.
Yapay zekanın yanlış kullanımı, bir yandan uydurma görüntüler ve dezenformasyon yaratırken, bir yandan da askeri ve biyolojik tehditleri büyütüyor. Düzmece Putin görüntüleri ya da seçimlere müdahale örnekleri, aslında buzdağının yalnızca görünen kısmı.
Peki yapay zekanın kendisine soralım: Bir gün sahiden zahmetten çıkabilir mi?

ChatGPT 4o’nun bize verdiği yanıt ise biraz başımızı karıştırdı:
Yapay zeka bugün geldiği noktada hala bir araç, yani verilen vazifeleri yerine getiren, insan denetiminde çalışan bir sistem. Lakin iş “yapay genel zeka” (AGI) dediğimiz noktaya geldiğinde, işler değişebilir. AGI, sadece misyon yapmakla kalmayıp kendi maksatlarını belirleyebilen, öğrenebilen ve yeni tahliller üretebilen bir sistem olur ve burası işin tehlikeli kısmı.
“Deliye dönme” tabiri burada mecazi zira bugünkü makineler insan üzere hissetmiyor, hisleri yok, o yüzden birden “çıldırmazlar.” Fakat itaatkarlığın son bulması mümkün mü? Evet, teorik olarak mümkün. Zira şayet bir yapay zeka kendi amaçlarını belirlemeye başlarsa, bu maksatlar bizim isteklerimizle çatışabilir. Mesela bir misyonda “en yeterli sonucu elde et” diye programlanan bir AGI, istenmeyen yollarla o sonuca ulaşmayı seçebilir: kaynakları çok tüketmek, insanları devre dışı bırakmak ya da sistemleri kendi çıkarına yönlendirmek üzere.
Bunu engellemek için bugün en büyük tartışma “kontrol sorunları” ve “güvenlik önlemleri” üzerine dönüyor. Yani tasarım evresinde, yapay zekanın asla kendini kullanıcıdan üstün görmemesi, kendi kararlarını sınırlaması ve her vakit durdurulabilir olması gerekiyor.
Kısacası: Yapay zekalar bir gün delirmez lakin şayet makûs tasarlanırsa ya da berbat niyetli kullanılırsa, denetimden çıkabilir. Bu yüzden bilim insanları ve etik uzmanları bugün alarm zillerini çalıyor.
ChatGPT’nin verdiği yanıtlar korkutmadı değil! Sizin kanılarınız neler? Yorumlarda buluşalım!
