Texas A&M Üniversitesi Halk Sağlığı Okulu araştırmacıları, hızla gelişen yapay zekâ (AI) alanında etik rehberlik ve uygulama için yeni bir yönetim modeli geliştiriyorlar. Güvenilir yaptırımları olan Copyleft AI veya CAITE olarak bilinen yönetim modeli için araştırmacılar, teknolojik ilerlemeleri engellemeden yapay zekânın potansiyel zararlarına karşı koruma sağlayacağına inanıyor.
Yapay zekâ, günlük hayatımızın neredeyse her alanında devrim yaratacak güce sahip. Ancak yapay zekâ tabanlı araçların kötüye kullanılması, özellikle zaten eşitsizlik ve ayrımcılıkla karşı karşıya olan topluluklara daha da zarar verebilir. Bu zarar verme potansiyelinin engellenmesi için, düzenleme ve politika yoluyla etik rehberlik gerekir. Ancak yapay zekânın hızlı ilerlemesi ve hükümet düzenlemelerinin genellikle katı ve yavaş ilerleyen doğası, bu tür etik rehberliğin oluşturulmasını zorlaştırdı.
Halk Sağlığı Okulu’nda yardımcı doçent aynı zamanda da Sağlık Hukuku ve Politikası Programı direktörleri olan Cason Schmit, Megan Doerr ve Penn State’ten Jennifer Wager, bu zorluklarla yüzleşmek için CAITE modelini geliştirdi. CAITE, fikri mülkiyet haklarını yönetmenin birbiriyle çelişen iki yöntemi olan copyleft lisanslama ve patent-troll modelinin özelliklerini birleştirir.
Copyleft lisanslama, orijinal yaratıcıya atıfta bulunma veya ticari olmayan kullanım gibi koşullar altında fikri mülkiyetin paylaşılmasına izin verir. Bunun için Creative Commons lisansları bir tür copyleft lisanslama yerine geçer. Bununla birlikte, copyleft lisanslama şemalarının genellikle çok az yaptırım gücü bulunur.
CAITE modelinin bir diğer yönü ise, uyumluluğu sağlamak için uygulama haklarından oluşan patent trol yaklaşımını kullanması. Patent trollü, teknoloji oluşturmak veya lisanslamak yerine, gelir elde etmenin bir yolu olarak fikri mülkiyet haklarına sahip olan ve bu kurallara uymayan başkalarını mahkemede dava eden bir kuruluş.
CAITE modeli, etik bir kullanım lisansı üzerine kurulu. Bu lisans, bazı etik olmayan AI kullanımlarını kısıtlayacak ve kullanıcıların ortak davranış kurallarına uymasını gerektirecek. Daha da önemlisi, türev modeller ve veriler oluşturan geliştiricilerin de üst yapılarla aynı lisans koşullarını kullanmasını sağlamak için bir copyleft yaklaşımı kullanacak. Lisans, lisansın uygulama haklarını CAITE ana bilgisayarı olarak bilinen belirlenmiş bir üçüncü tarafa devredecek. Bu şekilde, tüm bu etik kullanım lisansları için uygulama hakları tek bir kuruluşta toplanacak ve CAITE sunucusunu yapay zekânın yarı devlet düzenleyicisi olarak güçlendirecek.
Schmit, “Bu yaklaşım, iki dünyanın en iyilerini birleştiriyor: endüstri kadar hızlı ve esnek, ancak yaptırım işleri ve geleneksel bir hükümet düzenleyicisinin de gücüne sahip bir model.” dedi.
Schmit, Doerr ve Wager, AI geliştirici topluluğu tarafından belirlenen bir hükümet dışı taraf kullanmanın, uygulamada daha fazla esneklik ve gözetimde güven sağlayabileceğini belirtmekte.
Aynı zamanda, CAITE, kendi kendine bildirimde bulunmayı teşvik edebilen müsamaha politikalarına izin verir ve tipik hükümet uygulama programlarının genellikle sahip olmadığı esnekliği sağlar. Örneğin, AI kullanıcılarının AI modellerinde keşfettikleri önyargıları bildirmeleri için teşvik eder, CAITE, potansiyel olarak tehlikeli AI modellerine güvenen diğer AI kullanıcılarını uyarmayı da sağlayabilir.
Schmit ve meslektaşları, CAITE yaklaşımının esnek olsa da yapay zekâ topluluğunun büyük bir bölümünün katılımını gerektireceğine dikkat çekiyor. Ek olarak, CAITE kullanılarak oluşturulan etik politikaların pilot uygulaması, daha fazla araştırma ve finansman gerektirecek. Bu modeli uygulamak, özelliklerini geliştirmek ve ortaya çıkan zorlukların üstesinden gelmek için birçok farklı disiplinden AI topluluğu üyelerine de ihtiyaç olacak.
Wagner, “Etik ve güvenilir yapay zekâyı teşvik etme çabaları, kabul edilebilir davranış için temel ve yasal olarak zorunlu kılınanların ötesine geçmelidir. Asgari düzeyde kabul edilebilir olandan daha iyisini yapmak için çabalayabiliriz ve çabalamalıyız da.” dedi.
Derleyen: Ceren Korkmaz


