Gölge yapay zekâ çalışanlar için kolaylık, şirketler için risk
OpenAI’ın ChatGPT aracının 2023’te büyük muvaffakiyet elde etmesinden bu yana, chatbot birinci iki ayında 100 milyon kullanıcıya ulaştı.
OpenAI’ın ChatGPT aracının 2023’te büyük muvaffakiyet elde etmesinden bu yana, chatbot birinci iki ayında 100 milyon kullanıcıya ulaştı. Çalışanlar, hayatlarını kolaylaştıracak üretken yapay zekânın potansiyelinden çok etkilendiler. Microsoft, yapay zekâ kullanıcılarının yüzde 78’inin artık kendi araçlarını işe getirdiğini kestirim ediyor. Bu durum kurumsal yapılarda güvenlik risklerini de beraberinde getiriyor. Siber güvenlik çözümlerinde dünya lideri olan ESET, gölge yapay zekâyı mercek altına aldı.
Gölge yapay zekâ, kurumsal kontrol olmaksızın kullanılan yetkisiz yapay zekâ araçlarını ve teknolojilerini söz ediyor. ChatGPT, Gemini yahut Claude üzere tanınan sohbet robotları, cep telefonlarına yahut konuttan çalışma dizüstü bilgisayarlarına kolay kolay indirilip kullanılabiliyor. Bu robotlar, kimi çalışanlara iş yükünü azaltma, teslim tarihlerini kolaylaştırma ve daha yüksek kıymetli vazifelere vakit ayırma üzere cazip bir mümkünlük sunuyor.
ChatGPT üzere bağımsız uygulamalar, gölge yapay zekâ meselelerinin büyük bir kısmını oluşturur. Lakin bunlar sorunun tüm boyutunu temsil etmez. Bu teknoloji, tarayıcı uzantıları aracılığıyla da işletmelere sızabilir. Hatta kullanıcıların BT departmanının bilgisi olmadan aktifleştirdiği yasal iş yazılımı eserlerinde de bulunabilir. Bir de casuslu yapay zekâ var: Otonom casuslar etrafında şekillenen ve beşerler tarafından kendilerine verilen makul vazifeleri bağımsız olarak tamamlamak üzere tasarlanmış yapay zekâ inovasyonunun bir sonraki dalgası. Hakikat muhafaza tedbirleri alınmazsa bu casuslar hassas data depolarına erişebilir ve yetkisiz yahut makus niyetli aksiyonlar gerçekleştirebilir. Farkına varıldığında ise artık çok geç olabilir.
Gölge yapay zekâ riskleri nelerdir?
Bunların tümü, kuruluşlar için büyük potansiyel güvenlik ve uyumluluk riskleri oluşturuyor. Her komutta, çalışanların hassas yahut düzenlemeye tabi bilgileri paylaşma riski vardır. Bu bilgiler toplantı notları, IP, kod yahut müşteri ya da çalışanların ferdî olarak tanımlanabilir bilgileri olabilir. Girilen her şey modeli eğitmek için kullanılır, gelecekte başka kullanıcılara aktarılabilir. Üçüncü taraf sunucularda depolanır. Bu durum chatbot geliştiricisinin çalışanlarının hassas bilgilerini görmesine imkan tanıyarak kuruluşu daha da riske atar. Çinli sağlayıcı DeepSeek’te olduğu üzere, datalar bu sağlayıcı tarafından sızdırılabilir yahut ihlal edilebilir. Sohbet robotları, kuruluşu farkında olmadan gayeli tehditlere maruz bırakan yazılım güvenlik açıkları yahut art kapılar içerebilir. İş gayeli bir sohbet robotu indirmek isteyen rastgele bir çalışan, makinesinden kapalı bilgileri çalmak için tasarlanmış makûs maksatlı bir sürümü ezkaza yükleyebilir. Bu hedefle açıkça tasarlanmış birçok geçersiz GenAI aracı bulunmaktadır. Kodlama araçlarının müsaadesiz kullanımı, çıktıların uygun formda incelenmemesi durumunda müşteriye sunulan eserlere istismar edilebilir kusurlar getirebilir. Modeller önyargılı yahut düşük kaliteli bilgilerle eğitilmişse yapay zekâ dayanaklı tahlil araçlarının kullanımı bile riskli olabilir ve yanlışlı karar almaya yol açabilir. Gölge yapay zekâ ile irtibatlı güvenlik ihlalleri, ahenk cezaları da dâhil olmak üzere kritik mali ve prestij kaybına neden olabilir.
Riskleri azaltmak için neler yapılabilir?
Risklerle başa çıkmak için bulduğunuz her yeni gölge yapay zekâ aracını bir reddetme listesine eklemek kâfi olmayacaktır. Bu teknolojilerin kullanıldığını kabul etmeniz, ne kadar yaygın ve hangi maksatlarla kullanıldığını anlamanız ve akabinde gerçekçi bir kabul edilebilir kullanım siyaseti oluşturmanız gerekir. Güvenlik ve ahenk risklerinin nerede olduğunu anlamak için şirket içi testler yapılmalıdır. Belli araçların yasaklandığı durumlarda, kullanıcıları bu araçlara geçmeye ikna edebileceğiniz alternatifler bulmaya çalışın. Ayrıyeten çalışanların şimdi keşfetmediğiniz yeni araçlara erişim talep edebilecekleri meselesiz bir süreç oluşturun. Çalışanlara eğitim verin ve gölge yapay zekâ kullanarak ne üzere riskler alabileceklerini bildirin. Data sızıntısı risklerini azaltmak ve yapay zekâ kullanımına ait görünürlüğü artırmak için ağ izleme ve güvenlik araçlarını değerlendirin.
Kaynak: (BYZHA) Beyaz Haber Ajansı