Satılık Deepfake: Kaspersky yapay zeka çağının güvenlik tasaları konusunda uyardı
Son yıllarda yapay zeka (AI) ve makine tahsili teknolojilerinin yaygın olarak benimsenmesi, tehdit aktörlerine hücumlarını gerçekleştirebilecekleri sofistike yeni araçlar sağlıyor.
Bunlardan biri de insan gibisi doğal konuşma yahut gerçek insanların fotoğraf ve görüntü kopyalarını içeren deepfake’ler. Bu hücumları oluşturmak için harcanan vakit ve uğraş çoklukla potansiyel 'ödüllerinden' daha ağır bassa da Kaspersky, şirketlerin ve tüketicilerin deepfake'lerin gelecekte daha fazla tasa kaynağı olacağının farkında olmaları gerektiği konusunda uyarıyor.
Kaspersky araştırması, darknet pazarlarında deepfake oluşturma araçlarının ve hizmetlerinin yer aldığını tespit etti. Bu hizmetler dolandırıcılık, şantaj ve saklı bilgilerin çalınması üzere çeşitli gayeler için yapay zeka yardımıyla görüntü oluşturma imkanı sunuyor. Kaspersky uzmanlarının iddialarına nazaran, bir dakikalık deepfake görüntü 300 dolar üzere düşük bir fiyata satın alınabiliyor.
İnternet kullanıcıları ortasında dijital okuryazarlık konusunda değerli bir uçurum olduğu konusunda da kaygılar var. Yakın vakitte yapılan Kaspersky İş Dijitalleşme Anketine¹ nazaran Orta Doğu, Türkiye ve Afrika (META) bölgesinde ankete katılan çalışanların %51'i bir deepfake'i gerçek bir manzaradan ayırt edebileceklerini söyledi. Yapılan testte ise sadece %25'i gerçek bir manzarayı yapay zeka tarafından oluşturulmuş bir imgeden ayırt edebildi2. Kimlik avı ve öbür toplumsal mühendislik akınlarının birincil gayelerinin ekseriyetle çalışanlar olduğu düşünüldüğünde, bu durum kurumların risk altında olması demek.
Örneğin, siber hatalılar CEO'nun bir banka havalesi talep ettiği yahut ödemeyi onayladığı geçersiz bir görüntü oluşturabilir ve bu görüntü şirket varlıklarını çalmak için kullanılabilir. Bireylerden para ya da bilgi sızdırmak için kullanılabilecek tehlikeye atıcı görüntüler ya da imgeler oluşturulabilir.
Kaspersky Baş Data Bilimcisi Vladislav Tushkanov, şunları söylüyor: "Yüksek kaliteli deepfake yaratacak teknolojiler şimdi yaygın olarak bulunmasa da, bu teknolojinin en muhtemel kullanım alanlarından biri gerçek vakitli sesler üreterek diğer birinin kimliğine bürünmektir. Örneğin çok uluslu bir firmada çalışan bir finans vazifelisi, deepfake teknolojisi sayesinde bir görüntü konferans görüşmesinde şirketin finans müdürü gibi davranılarak dolandırıcılara 25 milyon dolar aktarmak üzere kandırıldı. Deepfake'lerin sırf işletmeler için değil, tıpkı vakitte ferdi kullanıcılar için de bir tehdit olduğunu unutmamak kıymetlidir. Yanlış bilgi yayarlar, dolandırıcılık emeliyle kullanılırlar yahut isteği olmadan öteki birinin kimliğine bürünürler. Bu korunulması gereken ve büyüyen bir siber tehdit."
Kaspersky, deepfake'lerin oluşturduğu çeşitli tehditlere karşı korunmak için bireylere ve işletmelere aşağıdaki tedbirleri öneriyor:
- Şüpheli aramalara dikkat edin. Düşük ses kalitesi, sesin doğal olmayan monotonluğu, anlaşılmaz konuşma halleri ve gelen anlamsız gürültülere dikkat edin.
- Deepfake görüntülerin temel özelliklerini öğrenin. Bu özellikler ortasında sarsıntılı hareketler, bir plandan başkasına geçişte ışıkta kaymalar, cilt tonunda farklılıklar, konuşmayla senkronize olmayan dudak hareketleri ve zayıf aydınlatma yer alır.
- Asla hislere dayalı kararlar vermeyin ve detayları kimseyle paylaşmayın. Yalnızca o kişinin bilebileceği bir şey sormak ya da aramayı durdurmak, alınan bilgileri birkaç kanaldan ayrıyeten doğrulamak her vakit daha yeterlidir. Bu noktada 'güven fakat doğrula' protokolünü izleyin.
- Kuruluşunuzun siber güvenlik uygulamalarını denetim edin ve güncelleyin.
- Kaspersky Threat Intelligence gibi bir güvenlik tahlili, bilgi güvenliği uzmanlarının deepfake konusundaki en son gelişmeler hakkında yeni kalmasına yardımcı olabilir.
- Şirketler ayrıyeten çalışanlarının deepfake'lerin ne olduğunu, nasıl çalıştıklarını ve oluşturabilecekleri zorlukları anlamalarını sağlayarak beşere dayalı güvenlik duvarını güçlendirmelidir. Bu, çalışanlara deepfake ataklarını nasıl tespit edeceklerini öğretmek üzere uygulanacak daima farkındalık ve eğitim çalışmalarını kapsar.
Kaynak: (BYZHA) Beyaz Haber Ajansı