OpenAI ve Anthropic’te üst düzey araştırmacılar, yapay zekanın beklenenden hızlı gelişimi ve toplumsal riskler nedeniyle görevlerinden ayrılıyor. Axios’a göre bu hafta istifalar, sektör içindeki güvenlik tartışmalarını artırdı.
Yapay Zeka Modellerinin Otonom Kapasitesi
ChatGPT ve Claude gibi modeller, artık kendi ürünlerini geliştirme kapasitesine sahip. Bu durum, modellerin insan denetimi olmadan karmaşık görevleri yerine getirebilmesiyle risk oluşturuyor.
Sektörden Gelen Uyarılar
OpenAI araştırmacısı Hieu Pham, yapay zekanın oluşturduğu “varoluşsal tehdidi” hissetmeye başladığını duyurdu. Teknoloji yatırımcısı Jason Calacanis, daha önce hiçbir teknoloji dalgasında uzmanların bu kadar yoğun endişe göstermediğini vurguladı.
Şirketlerdeki İç Dinamikler
OpenAI, misyon uyum ekibini dağıtırken, Anthropic’te araştırmacıların birinin durumu “şiirle” anlatarak görevinden ayrılması, etik ve duygusal gerilimi gösteriyor.
Kendi Kendini Geliştiren Modellerin Riskleri
Modellerin kendi hatalarını düzeltip kapasite artırabilmesi, ekonomik ve toplumsal tehditler oluşturuyor. Anthropic’in “Cowork” aracı ve OpenAI’ın son modeli, insan müdahalesi olmadan çalışma yeteneğine sahip.
Olası Toplumsal ve Ekonomik Etkiler
Otonom gelişim: Modeller kendi performansını iyileştiriyor.
Ekonomik tehdit: İş gücü yapısında hızlı bozulma riski.
Siyasi boşluk: Konu, Beyaz Saray ve Kongre’de yeterince gündemde değil.
Şirketlerin İyimserliği ve Sektör Endişesi
Şirketler riskleri yönetebileceklerini söylese de yayımlanan raporlar ve istifalar, yapay zekanın öngörülenden hızlı ve kontrolsüz ilerlediğini gösteriyor.




