Australia Terapkan Aturan Ketat Chatbot AI untuk Lindungi Anak dari Konten Berbahaya

AKURAT.CO Pemerintah Australia resmi meluncurkan aturan baru untuk mengawasi chatbot bertenaga kecerdasan buatan (AI) setelah muncul kekhawatiran bahwa teknologi ini bisa mendorong percakapan berbahaya. Mulai dari konten seksual eksplisit hingga dorongan bunuh diri, semua dianggap menimbulkan “bahaya nyata” bagi anak-anak.
Langkah ini menambah daftar kebijakan digital ketat Australia, termasuk larangan penggunaan media sosial bagi anak di bawah 16 tahun yang akan berlaku mulai Desember. Aturan tersebut mencakup platform besar seperti Facebook, Instagram milik Meta, hingga YouTube.
Anak-anak Terpapar Konten Tidak Pantas di Usia Muda
Komisioner Keamanan Daring Australia, Julie Inman Grant, dalam pernyataannya pada 9 September, mengungkapkan bahwa semakin banyak anak yang terpapar konten “mengerikan” sejak usia sangat muda. Ia bahkan menerima laporan anak berusia 10 tahun yang menjalin “hubungan seksual” dengan teman buatan berbasis AI — sebuah fenomena yang nyaris tanpa regulasi.
Aturan Baru: Pemeriksaan Usia Wajib Diterapkan
Melalui aturan anyar ini, situs yang menampilkan atau menyebarkan pornografi serta konten “berdampak tinggi” lain diwajibkan menerapkan teknologi pemeriksaan usia. Tujuannya jelas: mencegah anak-anak mengakses materi berbahaya.
Selain itu, toko aplikasi juga diminta memastikan semua aplikasi memiliki rating usia yang tepat dan memasang fitur verifikasi umur sebelum bisa diunduh.
Aturan ini tidak hanya berlaku bagi media sosial, tapi juga meliputi layanan AI, situs gim daring, dan platform digital lainnya. Bagi yang melanggar, denda tidak main-main: hingga A$50 juta atau setara Rp520 miliar.
“Saya tidak ingin anak-anak dan remaja Australia menjadi korban teknologi canggih yang diluncurkan ke pasar tanpa pengaman,” tegas Inman Grant.
Dilarang mengambil dan/atau menayangkan ulang sebagian atau keseluruhan artikel di atas untuk konten akun media sosial komersil tanpa seizin redaksi.
Berita Terkait
Berita Terkini









