Yapay zekalı sohbet robotları bir devrim olduğu kadar bir tehdit de. Uzman: Yanlış ellere geçebilecek çok fazla veri topluyorlar

Siber güvenlik uzmanı Mateusz Chrobok, PAP'a verdiği röportajda, yapay zeka sohbet robotlarından elde edilen verilerin siber suçluların, yabancı servislerin veya reklam verenlerin eline geçebileceği ve kullanıcıların zararına kullanılabileceği konusunda uyarıyor. Dijital hijyene dikkat edilmesini ve üretilen içeriklere şüpheyle yaklaşılmasını önerdi.
157.000 takipçisi olan bir eğitim platformu ve YouTube kanalı yöneten siber güvenlik ve yapay zeka uzmanı Mateusz Chrobok. Yapay zeka sohbet robotları geliştiren teknoloji şirketlerinin, kullanıcıların sohbet robotlarına girdiği bilgilerden yola çıkarak sosyal medya da dahil olmak üzere internet üzerinden kullanıcılar hakkında veri elde ettiği fark edildi.
"Bu temelde, genellikle belirli bir şirket tarafından profilimiz çıkarılıyor, böylece chatbot'un yanıtları bize daha uygun hale getiriliyor" diye açıkladı.
Uzman , şirketlerin istemlerden, yani belirli bir kullanıcının chatbota girdiği sorgulardan, kullanıcının kullandığı dil, görünüm (ekli fotoğraflar söz konusuysa), görünümler, aile durumu, sorunlar vb. hakkında bilgi okuyabileceğini belirtti. Bazı şirketler ayrıca kullanıcının cihazındaki bilgilere erişim de istiyor, örneğin; iletişim bilgileri, konum. Chrobok, "Çin DeepSeek ayrıca klavyede yazma şeklimizi de topluyor ve bundan yaşımız veya belirli bir günde yorgun veya uykusuz olup olmadığımız gibi birçok veriyi çıkarabiliyoruz" dedi.
"Bazen bir sohbet robotuna, daha iyi bir modele vb. ücretsiz erişim karşılığında verilerimizden vazgeçmeye meyilli oluyoruz. Yani aslında belirli faydalar için mahremiyetimizden vazgeçiyoruz" diye belirtti. Chatbot kullanımının hassas verilerin sızdırılması riskini taşıdığına dikkat çekti. Chrobok, iki yıl önce OpenAI'nin ChatGPT kullanıcı endekslerini karıştırdığı bir durumu hatırlattı. Bu durum, bir kişinin hesabına giriş yaptıktan sonra başka bir kişinin konuşma geçmişine erişebilmesine yol açtı. "Sorun kullanıcıların yüzde 1,2'sini etkiliyor ama pratikte milyonlarca insan anlamına geliyor" diye vurguladı.
Uzman, chatbot'larla ilişkili bir diğer güvenlik tehdidinin ise ATO saldırısı veya Hesap Ele Geçirme (PAP) olduğunu belirtti. Siber suçlu, hesabı ele geçirdikten sonra kullanıcının konuşma geçmişine ait verilere erişim sağlayabilir, örneğin: Chrobok, adını, soyadını, telefon numarasını, kredi kartı numarasını, yanlışlıkla herhangi bir belgeye girmesi veya paylaşması durumunda bunları başkalarının erişimine kapatabileceğini söyledi. "Araştırmalar, modellerin bu tür bilgileri depoladığını ve bunlar üzerinde eğitildiklerinde kolayca silinemeyeceğini gösteriyor. Ayrıca, bu verileri bir sohbet robotundan çıkarmanın yolları da var," diye belirtti uzman.
Bazı şirketlerin kullanıcıların verileri üzerinde geçmiş kaydetme veya bir model eğitme seçeneğini devre dışı bırakmalarına izin verdiğini de sözlerine ekledi. "Çok hassas bilgiler için, cihazınıza veya sunucunuza yerel bir model yüklemek en güvenli yoldur. O zaman verilerimizin sızma ihtimali en yüksek olur," diye vurguladı.
Chrobok, toplanan verilerin profilli reklamlar oluşturmak için de kullanılabileceğini belirtti. "Kötü bir gün geçirdiğimizi veya depresyon, obezite veya başka bir sorunla mücadele ettiğimizi ve reklamcıların bu bilgileri satın alma kararlarımızı etkilemek için kullandığını hayal edelim; bu da bizim için mutlaka faydalı olmayacaktır. Burada manipülasyonun gri dünyasına giriyoruz. Bizim için iyi olacağını düşündüğümüz şey, AI modelleri yaratıcıları ve kârı optimize eden şirketler için mutlaka iyi olmayabilir," diye değerlendirdi.
Uzmanlara göre, kullanıcı verilerinin korunma düzeyi, chatbot'un menşe ülkesinden etkilenebiliyor. "Çinli bir şirket olan DeepSeek, r1 gibi harika modeller üretiyor ancak bu modeller birçok yerde engelleniyor çünkü Çin yasalarına göre, yaratıcıları kullanıcı verilerini yetkililere vermek zorunda ve yetkililer de örneğin bu verileri servislere teslim edebiliyor" diye belirtti. Amerikalı bir yetkilinin Çinli bir chatbot'a yazarak ailesiyle veya iş hayatıyla ilgili yaşadığı sorunları anlattığı varsayımsal bir durum örneği verdi. "Toplanan bilgiler Çin tarafından bu kişiyi casus olarak işe almak veya başka bir şekilde nüfuz kullanmak için kullanılabilir. Zaaflarımızı ortaya koyarak böyle bir durumda manipülasyona daha açık hale geldiğimizi düşünüyorum" diye vurguladı.
Chrobok, araştırmaların modellerin yaratıcılarının görüşlerini yansıttığını gösterdiğini belirtti. "Örneğin, Çin DeepSeek'i Amerikan askerlerinden bahsederken olumsuz bir duyguya (üretilen içeriğin tonu - PAP) sahipken, OpenAI modelleri tam tersi bir duyguya sahip," diye belirtti ve ekledi: "Her model belli bir bilgi balonudur." "Bazı yaratıcılar onları öyle yapmaya çalışsa bile, tarafsız değiller. Bunu hatırlamakta fayda var," diye vurguladı.
Bazı kullanıcıların yaptığı gibi, chatbot'ları duygusal destek veya terapist olarak kullanmanın güvenliği sorulduğunda uzman, 2023 yılında Belçika'da yaşanan bir durumu hatırlattı. Küresel ısınmayla ilgili sorunların farkında olan bir adam, bir chatbot aracılığıyla bu konu hakkında yazıyordu. Bir ara yapay zeka ona eğer ürettiği CO2 miktarını azaltmak istiyorsa var olmamasının en iyisi olacağını söyledi ve adam da kendi canına kıydı. Uzman, bunun yapay zekayla yapılan görüşmeden sonra kaydedilen ilk intihar olduğunu kaydetti.
"Bu aşırı bir durum, ancak AI'dan tavsiye istediğimizde, zihinsel durumumuzu ve görüşlerimizi onunla paylaştığımızda bizi neyin tehdit edebileceğini gösteriyor. Sağladığı cevaplar istatistiklere dayanıyor, bu da her zaman doğru olmayacakları anlamına geliyor. Teknolojinin ilerlemesi sayesinde, giderek daha da buna benziyorlar, bu da onlara en sık güvendiğimiz anlamına geliyor ve bu da uyanıklığımızı azaltabilir," diye belirtti ve konu ne kadar özelleşirse, yapay zeka modellerinin -en azından şimdilik- o kadar yanlış olduğunu ekledi.
"Bu, Derin Araştırma (gelişmiş bilgi analiz yöntemi - PAP) gibi teknik yöntemlerle önemli ölçüde iyileştirilebilir, ancak herkes bunları nasıl kullanacağını bilmiyor. Bu nedenle, sohbet robotları tarafından oluşturulan içeriklere karşı şüpheci olmayı teşvik ediyorum," diye vurguladı uzman.
İşyerlerinde chatbot'larla ilgili riskler sorulduğunda Chrobot, 2023 yılında bir Samsung çalışanının gizli veriler içeren bir sunumu ChatGPT'ye yüklediğini ve bu sunumun daha sonra sızdırıldığını ve rakipler tarafından elde edilebileceğini söyledi. "Birçok şirket ve yönetici bundan korkuyor ve bazen çalışanların yapay zekayı kullanmasını tamamen yasaklıyorlar. Bana göre bu iyi bir yol değil," dedi eğitimci. Ona göre bu teknoloji olmadan şirketlerin rekabet gücü azalacak. "Sadece güvenli bir şekilde nasıl kullanılacağını bilmeniz gerekiyor" diye konuştu.
Chrobok'a göre, şirketlerde yapay zekanın güvenli bir şekilde uygulanması süreci, "Yapay Zeka hijyeni"nin geliştirilmesiyle, yani önce üstlerin, sonra da çalışanların eğitilmesiyle başlamalı. "İkincisi, teknik önlemler önemlidir," diye belirtti ve işverenlerin yatırım yapabileceği Veri Sızıntısı Önleme adı verilen bir çözüm alanı olduğunu açıkladı. Buna, örneğin, hangi verilerin şirketten çıkabileceğini ve hangilerinin çıkamayacağını değerlendiren modeller dahildir. Uzman, her kuruluşun yapay zeka kullanımına ilişkin kurallara sahip olması gerektiğini, bu kurallara göre örneğin hangi verilerin bir chatbot'a yüklenebileceğini, hangilerinin hassas olduğunu ve hangilerinin yapay zeka kullanılarak üretilmiş olarak işaretlenmesi gerektiğinin belirtilmesi gerektiğini, çünkü bunun örneğin yasa gereği zorunlu olduğunu belirtti.
Uzman, risklere rağmen yapay zekanın her şirkette uygulanması gerektiği yönündeki görüşüne ilişkin soruya, tüm girişimcileri yapay zeka kullanmaya zorlamanın "insanlık dışı" olacağını söyledi. "Ancak bu teknolojiyi bilmek daha iyidir, çünkü iş piyasasında yolunuzu bulmanıza veya işin kendisini daha az iş olacak ve daha etkili olacak şekilde düzenlemenize yardımcı olabilir," dedi.
"Bazılarının evrim, devrim veya başka büyük kelimeler kullandığı bir andayız. Yapay zekanın bizi geçtiği an henüz değil, ancak bazı açılardan kesinlikle öyle," diye belirtti. İnsan zekâsının sınırlı olduğunu vurguladı. "AI modelleri de sınırlamalara ve tehditlere sahip, ancak daha doğru hale geliyorlar ve gelecekte insanlardan daha iyi olacaklar. Becerilerimiz ve yeteneklerimiz basitçe daha zayıf olacak," dedi.
Bir şirketin CEO'sunun, "Bir insanı işe almadan önce birkaç yapay zeka modelini test edin" şeklindeki e-postasının sızdırılmasıyla bağlantılı olarak bazı şirketlerin çalışanlara yönelik yaklaşımının kendisini endişelendirdiğini kaydetti. "Belki de bizi bekleyen gelecek budur, eğer yol boyunca başka çözümler ortaya çıkmazsa. Her şeye rağmen, işimizi iyileştirmek için yapay zekayı uygulamanın hayranıyım. Bana göre, "geçici bir heves" veya "AI çılgınlığı"ndan bahsetmek önemli bir anı kaçırmak," diye vurguladı Chrobok.
Monika Blandyna Lewkowicz (PAP)
mbl/ mick/ mhr/
bankier.pl