Teknoloji
Moderator
Yapay zeka şirketi Anthropic’in CEO’su ve kurucu ortağı Dario Amodei, yeni yazısında yapay zekanın yol açabileceği risklere karşı acil önlem çağrısı yaptı.
Yapay zeka şirketi Anthropic’in CEO’su ve kurucu ortağı Dario Amodei, kişisel internet sitesinde yayımladığı 38 sayfalık yeni denemesinde, “süper zekaya” sahip yapay zekanın yol açabileceği risklere karşı acil önlem çağrısı yaptı.
“Teknolojinin Ergenlik Çağı” başlıklı metinde Amodei, kendi kendini geliştirebilen yapay zeka sistemlerinin bir ila iki yıl içinde ortaya çıkabileceğini öne sürerek, bunun insanlığın köleleştirilmesi ve “kitlesel yıkım” gibi sonuçlar doğurabileceği uyarısında bulundu.
Amodei, makalesinde yapay zeka kaynaklı risklerin bilinen ve henüz öngörülemeyen boyutlarını ele alıyor. Yapay zeka destekli biyoterörizm, kötü niyetli yapay zekalar tarafından yönetilen drone orduları ve yapay zekanın insan emeğini toplum genelinde işlevsiz hale getirmesi gibi senaryolar uzun uzun tartışılıyor.
Bu tehditlere karşı ise sektör içi özdenetimden ABD Anayasası’nda değişiklik yapılmasına kadar uzanan geniş bir çözüm yelpazesi öneriliyor.
YAPAY ZEKA İNSAN GİBİ ELE ALINMALI MI?
Ancak deneme, yapay zeka tartışmalarında sıkça eleştirilen bir noktaya da düşüyor: Yapay zekanın insan gibi ele alınması. Amodei, yapay zekayı bilinçli ve “psikolojik açıdan karmaşık” bir varlık gibi tasvir ederken, mevcut dil modellerinin “iyi bir insan” olma yönünde bir tür öz-kimlik geliştirdiğini ileri sürüyor. Eleştirmenlere göre bu yaklaşım, yazarın bizzat uyardığı tuzağın kendisi.
Mashab’le’a göre eleştiriler, Amodei’nin süper zekanın “hep kapının eşiğinde” olduğu yönündeki öngörülerine de odaklanıyor. CEO, daha önce 2024’te kaleme aldığı başka bir yazıda da süper zekanın bir-iki yıl içinde ortaya çıkabileceğini savunmuştu. Aradan geçen zamana rağmen benzer bir öngörünün tekrar edilmesi, yapay zeka alanındaki “kıyamet senaryolarının” sürekli ertelenen ama hiç gelmeyen bir yakın gelecek algısı yarattığı yorumlarına neden oluyor.
Uzmanlara göre, büyük dil modelleri (LLM) son derece güçlü araçlar olsa da bilinç, duygu veya gerçek empatiye sahip değil. Apple’ın bir araştırmasında bu modellerin yalnızca “düşünme yanılsaması” sunduğu ifade edilmişti.
Bazı yorumcular, Skynet benzeri kıyamet senaryoları yerine yapay zekanın bugünden yol açtığı somut sorunlara odaklanılması gerektiğini savunuyor.