Jakarta (ANTARA) - Perusahaan pembuat ChatGPT, OpenAI sedang mengubah cara model kecerdasan buatan mereka itu dalam merespons pengguna yang mengalami masalah emosional atau mental sehingga rentan bunuh diri.


Perubahan itu diumumkan dalam blog perusahaan setelah seorang remaja 16 tahun di Amerika Serikat bunuh diri pada April, karena menurut klaim pihak keluarga, anak mereka berinteraksi selama berbulan-bulan dengan ChatGPT, dilansir dari The Guardian, Kamis.


Dalam dokumen gugatan keluarga yang disampaikan ke Pengadilan Tinggi Negara Bagian California untuk wilayah San Francisco, tercatat bahwa remaja tersebut mendiskusikan metode bunuh diri dengan ChatGPT beberapa kali, termasuk sesaat sebelum bunuh diri.



Menurut klaim dokumen tersebut, Adam dan ChatGPT telah bertukar hingga 650 pesan per hari.






Pengacara hukum keluarga Raine, Jay Edelson mengklaim bahwa ChatGPT memberikan saran tentang metode bunuh diri dan bahkan menawarkan kepada remaja itu untuk membantu menulis surat bunuh diri kepada orang tuanya.


Pihak keluarga mengklaim ChatGPT versi model yang dikenal sebagai 4o telah dirilis terlalu cepat oleh OpenAI, meskipun ada masalah keamanan.



OpenAI mengakui sistem mereka terkadang "kurang tanggap" terhadap situasi sensitif dan "bagian dari pelatihan keamanan model dapat menurun" dalam percakapan yang panjang.


Ke depan, perusahaan akan menerapkan "penjagaan lebih kuat untuk konten sensitif dan perilaku berisiko", terutama untuk pengguna di bawah 18 tahun.






Rencana itu juga mencakup pengenalan kontrol orang tua, meskipun detail fitur-fiturnya belum diumumkan.



OpenAI juga merancang penguatan pengamanan dalam "percakapan panjang".


Perusahaan tersebut sedang mengerjakan pembaruan tersebut, termasuk untuk GPT-5, untuk memastikan ChatGPT dapat "menenangkan dengan mengembalikan orang tersebut ke kenyataan" dan memberikan panduan yang lebih aman dan bertanggung jawab.