Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul °C

Güney Kore’de deepfake istismarı, hatalıların yarısı ergenlik çağında

22.11.2025 - 4:00    google-news - ABONE OL

Deepfake teknolojisi ile cinsel istismar hatalarında patlama yaşanan Güney Kore’de hatalıların yarısını ergenlik yaşındaki bireyler oluşturuyor.

Güney Kore polisi, geçtiğimiz yıl çevrim içi cinsel istismar hatalarıyla kontaklı 3 bin kişiyi gözaltına aldı. Yetkililerin açıklamasına nazaran bunların yaklaşık yarısı gençlerdi.

Ulusal Polis Ajansı (NPA) Kasım 2024 ile Ekim 2025 ortasında 3 bin 411 çevrim içi cinsel istismar olayı tespit ettti, 3 bin 557 kişiyi gözaltına aldı. Bunlardan 221’i tutuklandı.

Yonhap haber ajansının aktardığına nazaran deepfake temaslı istismarlar bu kabahatlerin yüzde 35,2’sini oluştururken çocukların ve ergenlerin görüntüleri yüzde 34,3 oranındaki hadiseleri oluşturdu. Yasa dışı kayıtlar ise kabahatlerin yüzde 19,4’ünü kapsadı.

Şüphelilerin yaklaşık yarısının, yani bin 761 kişinin ergenlik çağındaki şahıslar olduğu belirtildi. Bin 228 kişinin ise 20’li yaşlarında, başkalarının 30-40 yaşlarındaki hatalılar olduğu kaydedildi.

Polise nazaran deepfake kabahatinden tutuklananların yüzde 90’ından fazlası ergen ya da yetişkindi. Bu şahısların dijital araçlara son derece yeterli hakim olduğu tabir edildi.

NPA’nın bilgilerine nazaran Güney Kore’de çevrimiçi cinsel istismar hataları bir evvelki yıla kıyasla yüzde 47,8 oranında artı.

DEEPFAKE NE DEMEK?

Deepfake, İngilizce “deep” yani “derin” sözüyle, “fake” yani “sahte” sözünün birleşimi ile oluşturulan bir kavram.

Deepfake, yapay zeka ve derin öğrenme teknikleri kullanılarak gerçekçi uydurma imaj ve sesler oluşturmayı mümkün kılıyor. Bu teknoloji, dolandırıcılık, dezenformasyon ve şahsî zımnilik ihlalleri üzere makûs niyetli gayelerle kullanılıyor.

Farklı yapay zeka sistemleri kullanılarak görüntülerin elde edildiği bu teknoloji, rastgele bir görüntüdeki konuşmacının söylediklerinin çarçabuk değiştirilmesine de müsaade veriyor.


Bu Haberi Paylaş
ETİKETLER:
          google-news
YORUMLAR

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.