Magazin
Moderator
OpenAI ve Anthropic’te görev yapan iki çalışan, şirketlerin yapay zeka stratejilerine yönelik kamuoyuna açık uyarılarda bulunarak görevlerinden ayrıldı. Anthropic’in güvenlik önlemleri araştırma ekibine liderlik eden Mrinank Sharma, pazartesi günü istifa ettiğini duyurdu. Cambridge Üniversitesi’nde mühendislik, Oxford Üniversitesi’nde makine öğrenimi eğitimi alan Sharma, sosyal medya platformu X üzerinden yaptığı açıklamada, "Dünya tehlike altında"ifadesini kullandı.
'KRİZLER EŞ ZAMANLI İLERİYOR'
Sharma, yalnızca yapay zeka ya da biyolojik silahların değil, birbirine bağlı çok sayıda krizin eş zamanlı olarak ilerlediğini belirterek, insanlığın dünyayı etkileme kapasitesi arttıkça bilgelik düzeyinin de aynı ölçüde artması gerektiğini vurguladı. Şirket içindeki deneyimlerine de değinen Sharma, değerlerin karar alma süreçlerinde her zaman belirleyici olmasının zor olduğunu ifade etti.
YAYGIN ŞEKİLDE KULLANILIYOR
Anthropic, dünyanın önde gelen yapay zeka şirketlerinden biri olarak biliniyor. Şirketin geliştirdiği Claude adlı sohbet robotu özellikle yazılımcılar ve iş dünyasında yaygın şekilde kullanılıyor. Sharma’nın ekibi, yapay zeka destekli biyoterörizm risklerine karşı savunma mekanizmaları geliştirmiş ve kullanıcıların sohbet botlarına duygusal bağımlılığının artmasıyla gündeme gelen yapay zekaya aşırı uyum konusunu araştırmıştı.
'DERİN ÇEKİNCELER'
İngiltere merkezli The Times'dan edinilen bilgilere göre OpenAI’de ürün ve güvenlik alanında iki yıl görev yapan araştırmacı Zoë Hitzig ise istifasını New York Times’ta kaleme aldığı bir görüş yazısıyla duyurdu. Hitzig, şirketin ChatGPT’ye reklam entegre etme kararına yönelik "derin çekinceleri" bulunduğunu belirtti.
Hitzig yazısında, ChatGPT kullanıcılarının yıllar içinde benzeri görülmemiş bir "insani açıklık arşivi" oluşturduğunu, bunun da kullanıcıların karşılarında gizli bir ajandası olmayan bir sistem bulunduğuna inanmalarından kaynaklandığını ifade etti.
EN MAHREM SORUNLAR YAPAY ZEKA İLE PAYLAŞILIYOR
Habere göre kullanıcıların sağlık korkuları, ilişki sorunları ve inançları gibi en mahrem düşüncelerini sohbet botlarıyla paylaştığını kaydeden Hitzig, bu veriler üzerine inşa edilecek reklam modelinin kullanıcıları manipüle etme riski taşıdığını ve bu riskleri anlamaya ya da önlemeye yönelik yeterli araçların bulunmadığını savundu.
'SÜPER ZEKA' GELİŞTİRMEYİ HEDEFLİYORLAR
Yapay zeka risklerinin azaltılmasını savunan ControlAI adlı kampanya grubunun kurucusu ve Üst Yöneticisi (CEO) Andrea Moretti, bu tür ayrılıkların artabileceğini belirterek, şirketlerin açıkça "süper zeka" geliştirmeyi hedeflediğini ve bazı yapay zeka yöneticilerinin dahi bu teknolojinin insanlık için varoluşsal risk oluşturabileceğini dile getirdiğini aktardı.
'İNSANLARA NE KALACAK?'
OpenAI teknik ekibinde görev yapan Hieu Pham da X hesabından yaptığı paylaşımda, yapay zekanın oluşturduğu varoluşsal tehdidi artık hissettiğini belirterek, "Yapay zeka aşırı derecede iyi hale gelip her şeyi dönüştürdüğünde insanlara ne kalacak? Bu bir ‘eğer’ değil, ‘ne zaman’ sorusu" ifadelerini kullandı.
Anthropic, daha önce OpenAI’den yapay zeka güvenliği konusundaki görüş ayrılıkları nedeniyle ayrılan araştırmacılar tarafından kurulmuştu. Şirketin Üst Yöneticisi Dario Amodei, yakın zamanda yaptığı açıklamada yapay zekanın beyaz yakalı işlerin yarısını ortadan kaldırabileceği uyarısında bulunmuştu.
KAAN, J-35 ve F-35 aynı sahada! Çin basını: Türkiye’nin gölgesinde kaldık
Suriye'de Şara ve bakanlara 5 suikast girişimi! BM raporu ortaya çıkardı