Geçtiğimiz günlerde ChatGPT ile ilgili ilginç bir haber ortaya çıktı. Bu habere göre Samsung firmasına ait bazı bilgilerin bahsi geçen yapay zeka robotu aracılığıyla sızmış olabileceği iddia edildi. Birçok Kore haber kaynağına göre sızdığı söylenen bilgiler içinde yarı iletken ekipman ölçüm verileri ve ürün verim bilgileri gibi bilgiler yer alıyor.

Mühendisler Tarafından Bu Yapay Zekâ Robotuna Talep Çok

OpenAI tarafından geliştirilen bu robot, 2022’nin Kasım ayında ücretsiz olarak genel kullanıma sunulmuştu. Birçok şirkette mühendislerin kullandığı bir doğal dil işleme robotu olan ChatGPT, yazılım veya raporlama gibi pek çok alanda kullanılabiliyor. Mühendisler ya da diğer çalışanlar bu sistemi, bazen şirketteki işverenin bilgisi dâhilinde bazense bilgisi olmadan kullanmaya başlayabiliyor.

Yazılım ve Toplantı Verileri ChatGPT’nin Veri Tabanına İşlendi

Sızdırma iddiasını haberleştiren kaynak olarak Digitimes, ChatGPT ile bilgi paylaşan mühendislerin neden olduğu üç özel sızıntı vakasından bahsediyor. Vakaların birinde bir mühendis hatalı bir kodu yükleyerek sohbet robotundan koddaki hatayı bulmasını ve yazılımı optimize etmesini istedi. Ancak yazdığı kaynak kod, ChatGPT’nin veri tabanına girdi ve öğrenme materyallerinin bir parçası oldu.Bir diğer vakada ise yapay zekâ robotundan toplantı tutanaklarının tutulması istendi. Böyle bir durumda da toplantının gizli kalması gereken detayları robotun veri tabanında saklanmaya başladı. Toplantıda tartışılan konu ya da toplantıya tam olarak kimlerin katıldığı gibi gizli ve hassas bilgiler, ChatGPT veri tabanında olduğundan, soran herkese bir materyal olarak ifşa edilebildi.

Özel Firmaların AI Hizmetleri İçin Kendi Yönergelerini Oluşturmaları Gerekiyor

The Korea Times'a göre, bu gibi olaylar büyük ses getirdi. Samsung, LG, SK Hynic ve diğer bazı şirketler, işyerinde ChatGPT ve diğer yapay zekâ robotlarının kullanımını kısıtlamak ya da engellemek amacıyla çalışmalara başladı.The Korea Times’ın haberine göre Samsung, şirket içi yayınladığı bir bültende ChatGPT’nin kötüye kullanımına dikkat çeken bir mesajın yayınlandığını duyurdu. Yine aynı kaynağın haberine göre SK Hynix şirketi, dâhili bilgisayarlarında ChatGPT kullanımını engelledi ve çalışanların bu yapay zekâ robotunu kullanmadan önce güvenlik onayı alması gerektiğini duyurdu.Sejong Üniversitesi'nde işletme profesörü olan Prof. Kim Dae-jong işyerinde yapay zekâ robotlarının kullanımının yaygınlaştığını belirterek, “Daha fazla kişinin ChatGPT'yi toplantılarda program yapmak veya açıklamalar düzenlemek için kullandığı bildiriliyor. Bu eylemler muhtemelen şirket sırlarının sızdırılma olasılığını artıracak. Bu nedenle özel firmaların AI hizmetleri için kendi yönergelerini oluşturmaları isteniyor" dedi. Prof. Kim, üniversitede öğrencilerin ödevler için ChatGPT kullanmasını engellemeye çalıştığını, ancak yapay zekâ çok iyi olduğu için bunu fark etmenin zor olduğunu sözlerine ekledi.Kaynak: https://www.eenewseurope.com/en/chatgpt-leaking-samsung-chip-secrets-is-icebergs-tip/