- Google, yapay zeka güvenliğini artırmak amacıyla kapsamlı güvenlik önlemleri geliştirmek için CoSAI’yi kurdu, bu girişim büyük teknoloji şirketlerinin işbirliğini içeriyor.
- Amazon, IBM, Microsoft, NVIDIA ve OpenAI gibi büyük şirketler, yapay zeka geliştirmede güvenliği sağlamak için işbirliği yaparak açık kaynaklı çözümler oluşturmayı hedefliyor.
- Artan anlaşmalar, yapay zeka projelerinde güvenliği artırmayı amaçlıyor, ancak bu girişimlerin daha katı düzenleyici kısıtlamaları engellemek için bir araç olabileceği yönünde şüpheler bulunuyor.
Üretken yapay zeka’nın geliştirilmesi çeşitli cephelerde önemli riskler ortaya koyarken, büyük oyuncular her geçen hafta yapay zeka gelişimini denetlemek ya da gözetim izlenimi vermek için kendi aralarında yeni anlaşmalar ve forumlar oluşturuyor gibi görünüyor.
Bu, yapay zeka projeleri ve her şirketin süreç içinde neleri izlemesi ve yönetmesi gerektiği konusunda işbirliğine dayalı bir tartışma ortamı yaratması açısından iyi bir şey. Ancak aynı zamanda, bunların şeffaflığı artırabilecek ve geliştiricilerin projeleriyle ne yapıp ne yapamayacaklarına dair daha fazla kural getirebilecek daha fazla düzenleyici kısıtlamayı engellemek için bir araç olduğu da hissediliyor.
Google, “yapay zeka ile birlikte gelen benzersiz riskleri ele almak için kapsamlı güvenlik önlemlerini geliştirmek” amacıyla tasarlanan Güvenli Yapay Zeka Koalisyonu’nu (CoSAI) oluşturan yeni bir yapay zeka rehberlik grubuyla ortaya çıkan en son şirket oldu.
Google’a göre: “Yapay zekanın hızlı büyümesine ayak uydurabilecek bir güvenlik çerçevesine ve uygulanan standartlara ihtiyacı var. Bu nedenle geçen yıl Güvenli Yapay Zeka Çerçevesini (SAIF) paylaştık ve bunun sadece ilk adım olduğunu biliyorduk. Elbette, herhangi bir sektör çerçevesini operasyonel hale getirmek için başkalarıyla yakın işbirliği ve her şeyden önce bunu gerçekleştirecek bir forum gerekir.”
Bu Yeniliğin Amacı Ne?
Yani bu tamamen yeni bir girişim değil, daha önce duyurulan bir girişimin genişletilmesi, yapay zeka güvenliğinin geliştirilmesine odaklanılması ve saldırıların ve veri ihlallerinin önlenmesine yardımcı olmak için savunma çabalarına rehberlik edilmesi.
Amazon, IBM, Microsoft, NVIDIA ve OpenAI dahil olmak üzere bir dizi büyük teknoloji oyuncusu, yapay zeka geliştirmede daha fazla güvenlik sağlamak için işbirliğine dayalı, açık kaynaklı çözümler oluşturmak amacıyla yeni girişime kaydoldu. Ve belirtildiği gibi, sürdürülebilir ve güvenli yapay zeka geliştirmeye odaklanan endüstri gruplarının büyüyen listesinin en sonuncusu.
Örneğin: Frontier Model Forum (FMF), yapay zeka geliştirme konusunda endüstri standartları ve düzenlemeleri oluşturmayı amaçlıyor. Meta, Amazon, Google, Microsoft ve OpenAI bu girişime imza attı.
Thorn, çocuk cinsel istismarı materyallerinden korumak için sorumlu bir şekilde tedarik edilen yapay zeka eğitim veri kümelerine odaklanan “Tasarımla Güvenlik” programını kurmuştur. Meta, Google, Amazon, Microsoft ve OpenAI bu girişime imza atmıştır. ABD Hükümeti, 200’den fazla şirket ve kuruluşun katıldığı kendi Yapay Zeka Güvenlik Enstitüsü Konsorsiyumunu (AISIC) kurdu.
Neredeyse her büyük teknoloji şirketinden temsilciler, yapay zeka araçlarının demokratik seçimleri bozmak için kullanılmasını önlemek için “makul önlemler” uygulamayı amaçlayan yapay zeka’nın Aldatıcı Kullanımıyla Mücadele için Teknoloji Anlaşması’nı kabul etti.
Esasen, güvenli yapay zeka geliştirmenin çeşitli unsurlarını ele almak üzere tasarlanmış forumların ve anlaşmaların sayısının arttığını görüyoruz.
Bu iyi bir şey, ancak aynı zamanda bunlar yasa değil ve bu nedenle herhangi bir şekilde uygulanabilir değil, bunlar sadece yapay zeka geliştiricilerinin belirli konularda belirli kurallara uymayı kabul etmeleri. Şüpheci görüş ise bunların sadece daha kesin bir düzenlemeyi engellemek için bir güvence olarak uygulamaya konduğu yönünde.
Derleyen: Yağmur Aydın