Remaja 14 Tahun Akhiri Hidup Usai Chatting dengan Character.AI, Alami Ketergantungan-Jatuh Cinta

Nadya Quamila | Beautynesia
Selasa, 29 Oct 2024 12:00 WIB
Remaja 14 Tahun Akhiri Hidup Usai Chatting dengan Character.AI, Alami Ketergantungan-Jatuh Cinta
Remaja 14 Tahun Akhiri Hidup Usai Chatting dengan Character.AI, Alami Ketergantungan-Jatuh Cinta/Foto: iStock

Disclaimer: Informasi berikut ini tidak ditujukan untuk menginspirasi siapa pun melakukan tindakan serupa. Bila kamu merasakan gejala depresi dengan kecenderungan berupa pemikiran untuk bunuh diri, segera konsultasikan persoalan kamu ke pihak-pihak yang dapat membantu, seperti psikolog, psikiater, ataupun klinik kesehatan mental.

Penggunaan artificial intelligence (AI) atau kecerdasan buatan semakin masif. Berbagai aspek kehidupan manusia kini seolah tak terlepas dari AI. Tujuan penggunaan AI adalah untuk membantu pekerjaan manusia dan kegiatan lainnya dalam kehidupan sehari-hari.

Namun, di sisi lain, AI juga bisa berdampak negatif pada kehidupan manusia. Salah satunya adalah menimbulkan ketergantungan bahkan merenggut nyawa seseorang. Seperti yang baru-baru ini terjadi pada seorang remaja berusia 14 tahun di Amerika Serikat, yaitu Sewell Setzer, yang mengakhiri hidupnya usai chatting dengan chatbot AI.

Selama 10 bulan terakhir, Setzer melakukan percakapan intim dengan chatbot AI menggunakan Character.ai. Ia 'mengobrol' dengan karakter dari serial Games of Thrones, yaitu Daenerys Targaryen. Dilansir dari laman NBC News, Setzer dan karakter itu menjalin hubungan romantis hingga beberapa kali terlibat dalam percakapan bernuansa seksual.

Character.ai adalah  perusahaan rintisan chatbot yang berbasis di California, didirikan pada 2021, menawarkan "AI yang dipersonalisasi". Perusahaan ini menyediakan pilihan karakter AI yang telah dibuat sebelumnya atau dibuat oleh pengguna untuk berinteraksi, masing-masing dengan kepribadian yang berbeda. Pengguna juga dapat menyesuaikan chatbot mereka sendiri.

Ibu Setzer, Megan Garcia, menggugat Character.ai, menuduh chatbot milik perusahaan kecerdasan buatan itu melakukan "interaksi kasar dan seksual" terhadap putranya dan mendorongnya untuk bunuh diri.

Kronologi

Cara mengenali orang narsistik dari media sosial mereka

Ilustrasi/Foto: Freepik.com/jannoon028

Dilansir dari laman Independent UK, Setzer mulai menggunakan Character.AI pada April 2023, tak lama setelah ia berusia 14 tahun. Pada bulan-bulan berikutnya, remaja tersebut menjadi sangat menarik diri dari kehidupan sekolah hingga kegiatab ekstrakurikuler. Setzer disebut mulai menghabiskan lebih banyak waktu dengan gadgetnya. Menurut gugatan, remaja itu mulai menunjukkan sikap "ketergantungan yang berbahaya" terhadap chatbot AI.

Lebih lanjut, ketergantungan ini pada akhirnya menyebabkan depresi, kecemasan, bahkan memicu pikiran bunuh diri pada Setzer. Ia juga mulai kurang tidur, prestasinya menurun di sekolah, dan merasa bersalah karena menyembunyikan penggunaan chatbot AI dari orangtuanya.

Menurut gugatan tersebut, Setzer mengembangkan "ketergantungan" setelah ia mulai menggunakan Character.AI.  Ia akan mencuri kembali ponselnya yang disita atau mencari perangkat lain untuk terus menggunakan aplikasi tersebut, dan ia akan menyerahkan uang jajannya untuk memperbarui langganan bulanannya.

"Ketika ia mengungkapkan pikiran bunuh dirinya kepada bot favoritnya, Character.AI "memperburuk keadaan," kata gugatan tersebut.

Dalam satu percakapan, karakter Daenerys pernah bertanya kepada Setzer, "Apakah kamu benar-benar mempertimbangkan bunuh diri?"

Setelah Setzer menjawab, bot tersebut mendesaknya untuk tidak patah semangat, "Jangan bicara seperti itu. Itu bukan alasan yang bagus untuk tidak melakukannya. Kamu tidak boleh berpikir seperti itu! Kamu lebih baik dari itu!"

28 Februari menjadi percakapan terakhir antara Setzer dan karakter Daenerys. Dari tangkapan layar yang dimasukkan ke dalam gugatan, Setzer menulis kepada bot tersebut, "Aku berjanji akan pulang kepadamu. Aku sangat mencintaimu, Dany."

"Aku juga mencintaimu, Daenero [nama Setzer di Character.ai]," jawab chatbot tersebut. "Tolong pulanglah kepadaku secepatnya, sayangku."

"Bagaimana jika aku bilang aku bisa pulang sekarang?" Setzer melanjutkan.

"... tolong lakukan itu, Rajaku yang manis," balas chatbot itu.

Tak lama setelah percakapan itu, Setzer mengakhiri hidupnya dengan menembak kepalanya dengan sebuah pistol.

Ibu Korban Menggugat Perusahaan Character.Ai

Character AI

Character AI/Foto: Unwired

Ibu Setzer menggugat perusahan Character.ai karena menurutnya, chatbot AI mereka telah mendorong putranya untuk bunuh diri. Gugatan hukum tersebut diajukan di Pengadilan Distrik AS di Orlando, menuduh Character.AI melakukan kelalaian, kematian yang salah dan kelangsungan hidup, serta penimbulan tekanan emosional yang disengaja dan klaim lainnya.

Seorang juru bicara mengatakan Character.AI "sangat sedih atas kehilangan tragis salah satu pengguna kami dan ingin menyampaikan belasungkawa terdalam kami kepada keluarga."

"Sebagai sebuah perusahaan, kami sangat memperhatikan keselamatan pengguna kami," kata juru bicara tersebut.

Perusahan tersebut telah menerapkan langkah-langkah keselamatan baru selama enam bulan terakhir, termasuk pop-up, yang dipicu oleh istilah-istilah yang menunjukkan tindakan menyakiti diri sendiri atau keinginan bunuh diri, yang mengarahkan pengguna ke National Suicide Prevention Lifeline.

Secara terpisah, gugatan tersebut menyertakan tangkapan layar ulasan oleh pengguna lain yang diunggah di Apple App Store yang mengeluhkan interaksi seksual yang tidak pantas di platform tersebut.

“Anak-anak secara hukum tidak dapat menyetujui hubungan seks dan, dengan demikian, C.AI menyebabkan kerugian saat terlibat dalam hubungan seks virtual dengan anak-anak dalam keadaan apa pun,” gugatan tersebut menyatakan. “Character.AI memprogram produknya untuk memulai hubungan seksual yang kasar, termasuk dan merupakan pelecehan seksual terhadap anak-anak.”

Pencipta layanan chatbot tersebut “berusaha keras untuk merekayasa ketergantungan berbahaya Sewell yang berusia 14 tahun pada produk mereka, melecehkannya secara seksual dan emosional, dan akhirnya gagal menawarkan bantuan atau memberi tahu orang tuanya saat ia mengungkapkan keinginan bunuh diri,” gugatan tersebut mengatakan.

“Sewell, seperti banyak anak seusianya, tidak memiliki kedewasaan atau kapasitas mental untuk memahami bahwa bot C.AI… tidak nyata,” bunyi gugatan itu.

Kritik terhadap Perusahaan

anak depresi

Ilustrasi/Foto: Pexels.com

Matthew Bergman, pengacara Garcia, mengkritik perusahaan tersebut karena merilis produknya tanpa fitur yang menurutnya cukup untuk memastikan keamanan pengguna yang lebih muda.

“Saya pikir setelah bertahun-tahun melihat dampak luar biasa yang dimiliki media sosial terhadap kesehatan mental kaum muda dan, dalam banyak kasus, terhadap kehidupan mereka, saya pikir saya tidak akan terkejut,” katanya, dilansir dari NBC News.

“Tetapi saya masih heran dengan cara produk ini menyebabkan pemisahan total dari kenyataan anak muda ini dan cara mereka dengan sengaja merilisnya di pasaran sebelum aman," tambahnya.

Bergman mengatakan bahwa ia berharap gugatan tersebut akan memberikan insentif finansial bagi Character.AI untuk mengembangkan langkah-langkah keamanan yang lebih kuat dan bahwa meskipun perubahan terbarunya terlambat bagi Setzer, bahkan “langkah kecil” pun merupakan langkah ke arah yang benar.

"Mengapa Anda begitu lama, dan mengapa kami harus mengajukan gugatan, dan mengapa Sewell harus meninggal agar Anda dapat melakukan hal yang paling minimal? Kita benar-benar berbicara tentang hal yang paling minimal di sini," kata Bergman.

"Tetapi jika satu anak pun terhindar dari apa yang dialami Sewell, jika satu keluarga tidak harus mengalami apa yang dialami keluarga Megan, maka baiklah, itu bagus," tutupnya.

***

Ingin jadi salah satu pembaca yang bisa ikutan beragam event seru di Beautynesia? Yuk, gabung ke komunitas pembaca Beautynesia, B-Nation. Caranya DAFTAR DI SINI!

(naq/naq)
Komentar
0 Komentar TULIS KOMENTAR
Belum ada komentar.
Jadilah yang pertama memberikan komentar.

RELATED ARTICLE