ChatGPT soruşturması: Kişisel veri yasalarına uymadı
Kanada’da yapılan soruşturmada OpenAI şirketinin, ChatGPT’yi geliştirirken ülkedeki zımnilik maddelerine uymadığı tespit edildi.
Teknoloji dünyasını kökten değiştiren yapay zeka gelişimini süratle sürdürürken, ferdî bilgi saklılığına ait tartışmalar da büyüyor.
Kanada’da yapılan ortak bir araştırmada, OpenAI’ın ChatGPT’yi geliştirirken ülkenin saklılık maddelerine uymadığı tespit edildi. Kanada medyasında, ülkedeki zımnilik denetleme kuruluşlarının 2022’de piyasaya sürülen ChatGPT isimli sohbet robotuyla ilgili bulgularının açıklandığı, OpenAI tarafından üretilen programın geliştirilmesiyle ilgili çalışmalarda “yasalara uyulmadığına dair” çeşitli bulgulara yer verildi.
ÖNLEM ALMADAN BİLGİ TOPLADI
OpenAI’nin, ChatGBPT’nin geliştirilmesi sırasında, kullanılmasını engelleyecek “herhangi bir güvenlik tedbiri almadan çok ölçüde şahsî bilgi topladığı” belirlendi.
Soruşturma raporlarında, yasadışı toplanan ferdî bilgiler ortasında kullanıcıların “sağlık durumları ve siyasi görüşleri üzere hassas detayların ve çocuklar hakkındaki bilgilerin” bulunabileceğine dikkat çekildi.
SORUNLARA KARŞIN PİYASAYA SÜRDÜ
Federal Komiser Philippe Dufresne, “OpenAI, bilinen kapalılık problemlerini tam ele almadan ChatGPT’yi piyasaya sürdü. Bu durum, Kanadalıları data ihlalleri ve kendileriyle ilgili bilgilere dayalı ayrımcılık üzere potansiyel ziyan risklerine maruz bıraktı.” sözünü kullandı.
Dufresne, OpenAI’nin “Kanada maddelerine uymayan bir eseri neden piyasaya sürdüğünü açıklama konusunda” problem yaşadığını belirtti.
Kanada’daki zımnilik denetleme kuruluşları, OpenAI’nin, şahsî bilgileri “izinsiz ve yasa dışı formda topladığı, kullandığı ve ifşa ettiği” istikametindeki bir şikayet üzerine 2023’te soruşturma başlatmıştı.