Branded Content
Platform digital kini jadi ruang utama penyebaran CSAM – Penganalisis
Aktiviti penyebaran Child Sexual Abuse Material (CSAM) menunjukkan trend semakin agresif dan tersusun susulan penggunaan teknologi baharu, kata Penganalisis Jenayah, Datuk Shahul Hamid Abdul Rahim.
Beliau berkata, pelaku kini bukan sahaja beroperasi secara tersembunyi tetapi juga semakin berani memanfaatkan ruang digital terbuka dengan taktik penyamaran lebih licik.
Trend penyebaran semakin kompleks dan berani
Menurutnya, sindiket menggunakan platform dengan ciri penyulitan hujung ke hujung (E2E), menyukarkan pengesanan oleh pihak berkuasa.
“Selain itu, pelaku turut mengambil kesempatan daripada kecerdasan buatan (AI) untuk menghasilkan imej palsu, termasuk apa yang dikenali sebagai AI-generated CSAM. Ada juga yang menggunakan kod khas atau istilah tertentu di platform umum bagi mengelak dikesan,” katanya.
Akaun sementara, dark web & cloud storage jadi ‘laluan selamat’ pelaku

Beliau berkata, pelaku lazimnya menggunakan akaun sementara yang dipadam selepas beberapa jam, menyertai kumpulan tertutup berasaskan jemputan, atau beroperasi di dark web dengan perlindungan VPN.
“Fail CSAM sering dikongsi dalam bentuk archive yang dilindungi kata laluan. Ada juga pelaku berpindah-pindah menggunakan pelbagai khidmat cloud storage untuk mengelak dijejaki,” katanya.
Rampasan 880,000 bahan gambarkan skala industri gelap
Mengulas rampasan lebih 880,000 bahan menerusi Op PEDO 2.0, beliau menyifatkannya sebagai bukti jenayah ini telah berada pada skala industri.
“Ini bukan lagi aktiviti terpencil. Ia menunjukkan wujud permintaan yang tinggi, termasuk rangkaian antarabangsa. Kecanggihan sindiket membuktikan masih ada kelompongan keselamatan digital dalam kalangan pengguna, termasuk ibu bapa,” tegasnya.
Mengapa kanak-kanak bawah 16 tahun lebih terdedah
Beliau menjelaskan kanak-kanak peringkat ini mudah dipujuk, kurang kemahiran menilai risiko, dan sering menggunakan media sosial tanpa pengawasan ibu bapa.
“Ruang seperti mesej peribadi (DM), gaming, livestream, dan chat room membuka peluang luas untuk grooming. Pelaku memanipulasi emosi, hadiah maya dan juga ugutan seksual,” ujarnya.
Umur minimum 16 tahun mampu bantu, tetapi tidak mencukupi
Sementara itu, Shahul Hamid berkata, penetapan umur minimum 16 tahun bagi platform sosial boleh membantu mengurangkan kehadiran kanak-kanak di ruang digital, namun keberkesanannya bergantung pada penguatkuasaan.
“Kanak-kanak masih boleh mencipta akaun palsu. Ibu bapa juga perlu diberi literasi keselamatan digital. Polisi umur mesti disokong verifikasi identiti yang kukuh dan sistem keselamatan platform yang lebih ketat,” katanya.

Foto: Janaan AI
Platform sosial masih belum proaktif secara menyeluruh
Menurutnya, hanya syarikat teknologi besar seperti Google, Meta dan TikTok mempunyai kemampuan teknikal menggunakan teknologi hash-matching seperti PhotoDNA.
“Platform kecil dan baharu tidak mempunyai standard keselamatan setara, malah ketelusan dalam laporan pengesanan CSAM juga masih rendah,” tambah Shahul Hamid lagi.
Langkah pemantauan yang wajar dilaksanakan platform
Beliau mencadangkan beberapa mekanisme wajib untuk mengurangkan penyebaran awal CSAM, termasuk penggunaan hash-matching bagi semua imej dan video baharu gabungan moderasi AI serta manusia untuk mengesan tingkah laku grooming, laporan berkala (transparency report) kepada kerajaan, ciri keselamatan kanak-kanak seperti pengesan imej berisiko dan amaran automatik, verifikasi umur lebih ketat selain tick box selain pengaktifan panic button untuk kanak-kanak melaporkan interaksi mencurigakan.
“Platform media sosial perlu meningkatkan security measures, manakala kerajaan termasuk Kementerian Komunikasi, Kementerian Digital dan Polis Diraja Malaysia mesti memainkan peranan aktif memantau dan bertindak ke atas jaringan ini,” katanya.
Beliau menegaskan bahawa keselamatan digital kanak-kanak memerlukan kerjasama menyeluruh daripada semua pihak, termasuk ibu bapa dan penyedia platform bagi memastikan ruang digital tidak terus dieksploitasi oleh pemangsa.
