İstanbul
AA muhabirinin derlediği bilgilere göre, Yapay zeka hayatın her alanı na etki Eden bir Teknoloji olarak etkisini her geçen gün artırıyor. Bu teknoloji, son kullanıcılar tarafından büyük dil modelleri aracılığıyla yoğun olarak kullanılıyor.
????En fazla kullanılan yapay zeka büyük dil modellerine bakıldığında ChatGPT , Gemini, DeepSeek, Perplexity, Grok , Microsoft Copilot ve Claude öne çıkıyor. Araştırmadan sağ lıkla ilgili Bilgi edinmeye kadar birçok amaç için yararlanılan yapay zeka modelleri, bazı kullanıcılar tarafından suç amaçlı da kullanılabiliyor.
Fiziksel saldırı ların planlanması, çeşitli silah ve mühimmat üretimi gibi durumlar yapay zekanın suç amaçlı kullanım örneklerini oluşturuyor. Platformlar bu tarz kullanımlara karşı modellerini eğiterek taleplerin reddedilmesini sağlamaya çalışıyor .
Önleyici tedbir mi, Veri mahremiyeti mi?
Yapay zekanın suç amaçlı kullanımına ilişkin örnek Kanada'da yaş andı. Ülkenin British Columbia eyaletinde 10 Şubat 'ta bir okul ve evde düzenlenen silahlı saldırıda, aralarında saldırganın da bulunduğu 10 kişi hayatını kaybetti, 27 kişi yaralandı.
Saldırgan 18 yaşındaki Jesse Van Rootselaar'ın ChatGPT'yi suç amaçlı kullandığı, yapay zeka platformunun Sahibi OpenAI tarafından aylar önce tespit edildi .
Wall Street Journal 'ın haberine göre, Van Rootselaar, geçen yıl haziran ayı nda ChatGPT'ye birkaç gün boyunca silahlı şiddet içeren senaryoları anlattı. Bu yazışmalar ChatGPT'nin otomatik inceleme sistemi tarafından işaretlenerek ilgili OpenAI çalışanlarına iletildi ve kullanıcının hesabı kapatıldı.
Şirket içerisinde bu paylaşımların kolluk kuvvetlerine bildirilmesi konusunda değerlendirme yapı ldı ve gerekli kriterleri karşı lamadığı belirlenerek güvenlik birimlerine konu iletilmedi. Bu durum, platformların erken önlem sistemi olarak kullanıp kullanılamayacağı veri mahremiyeti tartışmalarını da beraberinde getirdi.
Suç oluşmadan önce yapılacak bildirimler şirketlerin inisiyatifinde
Yapay zeka platformları çeşitli mekanizmalarla suç amaçlı kullanımın önüne geçmeye çalışıyor. ChatGPT gibi Gemini da suç amaçlı kullanımları tespit etmek ve engellemek için tasarlanmış çok katmanlı güvenlik protokolleri uyguluyor.
Gemini'nin kendisine gelen sorguları gerçek zamanlı olarak tarayan güvenlik filtreleri bulunuyor. Bir kullanıcının silah yapımı talimatı, yasa dışı madde sentezleme, fiziksel şiddet planlama gibi taleplerde bulunması durumunda sistem bunu otomatik olarak reddediyor ve cevap vermiyor. Ayrıca çok sayıda uzman ve bağımsız incelemeci, sistemin işaretlediği riskli konuşmaları düzenli olarak gözden geçiriyor.
Google , politikalarına göre yakın ve ciddi bir fiziksel zarar riski olan durumlarda yetkililerle veri paylaşabileceğini belirtiyor.
Acil durumlarda bilgi taleplerine ilişkin Google'ın sitesinde şu bilgiler yer alıyor:
"Birinin ölü münü veya ciddi fiziksel zarar görmesini önleyebileceğimize makul şekilde inanıyorsak, örneğin bomba tehditleri, okul saldırıları, kaçırma olayları, intihar önleme ve kayıp kişiler vakalarında, bir Devlet kurumuna bilgi sağlayabiliriz. Bu talepleri yine de geçerli yasalar ve politikalarımız ışığında değerlendiriyoruz."
Mevcut düzenlemeler , teknoloji şirketlerinin genellikle suç işlendikten sonra veri paylaşımı nı kapsıyor. Suç oluşmadan önce yapılacak bildirimler şirketlerin inisiyatifinde bulunuyor.
Kaynak: AA
dikGAZETE .com