- OpenAI, giderek güçlenen yapay zeka modellerinin tehlikelerini izlemek ve yönetmek için “Hazırlık Çerçevesi” adında bir dizi süreç ve araç geliştirdiğini duyurdu.
- Şirket, çerçeve kapsamında yapay zeka risk yönetimini denetleyecek ve güvenlik standartlarını koruyacak bir hazırlık ekibi oluşturdu.
- Çerçevede ayrıntılı risk kategorileri tanımlandı ve yüksek riske sahip yapay zeka modellerinin geliştirilmesi yasaklandı.
ChatGPT yapımcısı OpenAI son zamanlarda liderlik yapısında önemli değişiklikler geçirdi. Bu durum şirketin güvenlik sürecini yeniden değerlendirmesine yol açtı. OpenAI, olayların ardından yapay zekadan gelebilecek tehditlere karşı savunma hattını güçlendiriyor. Şirket bu amaçla “Hazırlık Çerçevesi” isimli bir dizi gelişmiş güvenlik protokolünü uygulamaya koyduğunu duyurdu.
Hazırlık Çerçevesi, OpenAI’ın yapay zeka ile ilgili endişelerin en azından bir kısmını ele alma girişimi. OpenAI, şirket blogunda yayımlanan çerçevede yeni yapay zeka modellerinin felakete yol açma risklerini belirlemek ve bunları ele almak için sistemli bir yaklaşımdan bahsediyor.
Hazırlık Çerçevesi nelerden bahsediyor?
Güçlenen yapay zeka modellerinin siber saldırılar, kitlesel ikna veya kendini kontrol edebilen silahlar için kullanılabilmesi gibi birçok risk var. Çerçeve, OpenAI’ın giderek güçlenen modellerin taşıdığı felaket risklerini nasıl izleyeceğini, değerlendireceğini, tahmin edeceğini ve bunlara karşı nasıl koruma sağlayacağını ana hatlarıyla ortaya koyuyor.
OpenAI çerçevenin duruk bir belge değil değişim halinde ve gelişen bir belge olduğunu söylüyor. Şirket yeni veriler, geri bildirimler ve araştırmalara dayanarak çerçeveyi sürekli güncelleyecek. OpenAI ayrıca bulgularını ve yapay zekayı ele almanın en iyi yollarını dünya ile paylaşacağını söylüyor.
Ek olarak OpenAI, blog yazısında yapay zekadan kaynaklanan riskleri azaltmak için birlikte çalışan çeşitli güvenlik ve politika ekipleri olduğunu yazıyor. Yazıya göre Güvenlik Sistemleri Ekibi mevcut modellerin kötüye kullanımını azaltmaya odaklanıyor. Superalignment, uzak bir gelecekte sahip çıkacak aşırı akıllı modellerin güvenliği için temeller oluşturuyor. Hazırlık ekibi ise Güvenlik Sistemleri, Superalignment ve OpenAI’deki diğer güvenlik ekipleriyle bağlantı kurmakla görevli olacak.
OpenAI’ın Hazırlık Çerçevesi duyurusu, kısa bir süre önce CEO Sam Altman’ın işten çıkarılması ve yeniden işe alınmasının ardından geldi. Şirketin Sam Altman ile ilgili sorunu ele alış yöntemi tartışılmış ve tartışmalar, dünyanın en gelişmiş yapay zeka sistemlerini geliştiren şirketin yönetişimi ve hesap verebilirliği hakkında sorulara yol açmıştı.
Derleyen: İsa Arslan