Samsung, OpenAI’ın ChatGPT, Google Bard ve Bing gibi popüler yapay zekâ araçlarının çalışanları arasında kullanımını yasakladı. Şirket, yapay zekâ platformlarına aktarılan verilerin haricî sunucularda depolanması nedeniyle geri alınmasının ve silinmesinin zorluğundan endişe ediyor.
Şirket, geçtiğimiz ay kurum içinde yapay zekâ araçlarının kullanımını ölçmek için bir anket düzenledi. Anket sonuçları, katılımcıların yüzde 65’inin bu tür hizmetleri kullanmanın güvenlik riski taşıdığına inandığını ortaya koydu.
Samsung, çalışanlarına gönderdiği bildiride “ChatGPT gibi üretken yapay zekâ platformlarına olan ilgi, şirket içinde ve dışında giderek artıyor. Bu ilgi, bu platformların kullanışlılığı ve verimliliğine odaklanırken üretken yapay zekânın sunduğu güvenlik risklerine ilişkin endişeler de giderek büyüyor.” dedi.
Bildiriye göre yeni politikanın uygulanması, Samsung mühendisleri tarafından ChatGPT’ye yüklenen dâhilî kaynak kodunun sızdırılmasından kaynaklanıyor.
Bildiride, “Genel Merkez, çalışanların üretkenliğini ve verimliliğini artırmak için üretken yapay zekâyı güvenli bir şekilde kullanmak amacıyla güvenlik önlemlerini gözden geçiriyor. Bu önlemler hazırlanana kadar üretken yapay zekâ kullanımını geçici olarak kısıtlıyoruz.” denildi.
Kore medyasında yer alan bir habere göre Samsung çalışanları, şirket sırlarını ChatGPT’ye yükledi.
Şirketin bildirisinde “Güvenlik yönergelerimize özenle uymanızı rica ediyoruz ve bunu yapmamanız, şirket bilgilerinin ihlal edilmesine veya tehlikeye atılmasına neden olabilir. Bu da iş akdinin feshine kadar varan disiplin cezalarıyla sonuçlanabilir.” deniyor.
Derleyen: Nazlı Koyuncu





