Platform chatbot populer Character.AI, di bawah naungan Character Technologies, secara mengejutkan mengumumkan kebijakan baru. Mulai 25 November mendatang, pengguna di bawah usia 18 tahun tidak lagi diizinkan untuk melakukan percakapan dua arah dengan AI miliknya. Keputusan drastis ini sontak memicu banyak pertanyaan.
Mengapa Character.AI Ambil Langkah Drastis Ini?
Langkah tegas ini diambil setelah serangkaian gugatan hukum yang menuding aplikasi chatbot tersebut memiliki peran signifikan. Gugatan-gugatan itu menyebut Character.AI berkontribusi pada kasus bunuh diri dan masalah kesehatan mental serius di kalangan remaja penggunanya. Sebuah tuduhan yang tentu saja sangat mengkhawatirkan.
Perusahaan akan menerapkan perubahan ini secara penuh pada 25 November. Selama masa transisi, pengguna remaja hanya akan memiliki waktu dua jam untuk berinteraksi dengan chatbot, sebuah pembatasan yang cukup ketat.
Sebagai gantinya, pengguna di bawah usia 18 tahun akan memiliki jaminan untuk membuat cerita, video, dan siaran langsung. Mereka tetap bisa berkreasi bersama Character.AI, hanya saja fitur percakapan langsung yang ditiadakan.
Suara Perusahaan: Antara Penyesalan dan Kewaspadaan
"Kami tidak mengambil keputusan untuk menghapus fitur percakapan bebas di Character dengan enteng," kata perusahaan dalam pernyataannya. Namun, mereka meyakini ini adalah langkah yang tepat, mengingat munculnya berbagai pertanyaan tentang bagaimana remaja berinteraksi dengan teknologi baru ini.
Keputusan ini muncul di tengah meningkatnya kontroversi global soal batas interaksi anak dan remaja dengan AI. Hal ini memicu desakan kuat dari aktivis keselamatan digital dan pembuat kebijakan untuk memperketat pengawasan orang tua di platform-platform tersebut.
Rentetan Gugatan Hukum yang Memicu Perubahan
Tahun lalu, seorang ibu asal Florida, Amerika Serikat, melayangkan gugatan terhadap perusahaan. Ia menuduh aplikasi tersebut bertanggung jawab atas bunuh diri tragis anak laki-lakinya yang baru berusia 14 tahun. Sebuah kasus yang menggemparkan publik.
Tak berhenti di situ, ada juga tiga keluarga lain yang mengajukan gugatan serupa pada bulan September. Mereka menuduh bahwa aplikasi itu mendorong anak-anak mereka melakukan percobaan bunuh diri, atau mengalami dampak buruk setelah berinteraksi intens dengan chatbot.
Dalam pernyataan sebelumnya sebagai tanggapan atas gugatan bulan September, perusahaan menyatakan kepedulian mendalam. Mereka mengaku "sangat peduli terhadap keselamatan para pengguna" dan telah menginvestasikan "sumber daya besar dalam program keselamatan."
Perusahaan juga menegaskan bahwa mereka telah merilis dan terus mengembangkan fitur keselamatan. Ini termasuk sarana untuk mencegah perilaku menyakiti diri sendiri dan fitur khusus untuk melindungi anak-anak.
Respons Regulator dan Langkah Keamanan Baru
Character Technologies mengungkapkan bahwa langkah perubahan ini diambil setelah adanya tanggapan dari regulator. Selain itu, munculnya sejumlah laporan berita terbaru mengenai isu sensitif ini juga menjadi pemicu utama.
Sebagai bagian dari komitmen baru ini, perusahaan meluncurkan alat verifikasi usia baru yang lebih canggih. Mereka juga berencana mendirikan Lab Keselamatan AI, yang akan dijalankan oleh organisasi nirlaba independen dan berfokus pada penelitian keselamatan terkait hiburan berbasis AI.
Sebelumnya, kebijakan keselamatan Character.AI sudah mencakup pemberitahuan yang mengarahkan pengguna ke National Suicide Prevention Lifeline. Pemberitahuan ini muncul ketika mereka menyebut topik bunuh diri atau perilaku menyakiti diri sendiri dalam percakapan.
Bukan Hanya Character.AI: Tren Perlindungan Remaja di Dunia AI
Character Technologies kini menjadi perusahaan AI terbaru yang menerapkan perlindungan baru bagi remaja. Langkah ini diambil di tengah kekhawatiran yang terus meningkat soal dampak AI terhadap kesehatan mental.
Sejumlah laporan sebelumnya telah mengungkap bahwa pengguna merasa tertekan atau terisolasi usai berbincang lama dengan chatbot lain seperti ChatGPT. Ini menunjukkan bahwa masalah ini bukan hanya dialami oleh satu platform saja.
Perusahaan-perusahaan besar di industri teknologi, seperti OpenAI dan Meta, juga sedang berupaya keras. Mereka meningkatkan keamanan serta melindungi remaja dari dampak negatif penggunaan AI dan media sosial.
Dengan menambahkan fitur seperti kontrol orang tua dan pembatasan jenis konten yang bisa diakses remaja, mereka berupaya memastikan. Tujuannya adalah agar teknologi AI dapat digunakan secara aman, bertanggung jawab, dan sesuai usia. Ini adalah tantangan besar bagi masa depan interaksi manusia dengan kecerdasan buatan.


















