Jakarta (ANTARA) - Perusahaan teknologi Anthropic, yang sebelumnya tidak menggunakan data percakapan konsumen untuk pelatihan model kecerdasan artifisial (Artificial Intelligence/AI), sekarang ingin melatih sistem AI miliknya dengan data percakapan dan sesi pemrograman pengguna.
Menurut siaran TechCrunch pada Kamis (28/8), Anthropic membuat perubahan besar dalam cara mereka menangani data pengguna dengan mewajibkan pengguna Claude menentukan pilihan sampai paling lambat pada 28 September 2025 apakah percakapan mereka boleh digunakan untuk melatih model AI.
Selain itu, perusahaan menyatakan akan memperpanjang masa penyimpanan data menjadi lima tahun bagi mereka yang memilih tidak berhenti berlangganan.
Kebijakan baru ini berbeda dari aturan yang lama.
Data pengguna produk konsumen Anthropic sebelumnya dihapus otomatis dalam waktu 30 hari, kecuali jika diwajibkan oleh hukum atau kebijakan untuk menyimpannya lebih lama atau masukan mereka ditandai sebagai pelanggaran kebijakan.
Kalau ditandai sebagai pelanggaran terhadap kebijakan, maka masukan dan keluaran data pengguna dapat disimpan hingga dua tahun.
Perubahan kebijakan penanganan data berlaku pada pengguna Claude Free, Pro, dan Max, termasuk layanan Claude Code.
Pelanggan layanan bisnis seperti Claude Gov, Claude for Work, Claude for Education, maupun pengguna API tidak terpengaruh.
Data-data perusahaan yang menggunakan layanan perusahaan tetap tidak digunakan untuk melatih model AI.
Anthropic menyampaikan bahwa kebijakan penanganan data pengguna produk konsumen diterapkan berdasarkan pilihan pengguna.
Dengan tidak memilih keluar, perusahaan menyatakan, pengguna akan membantu meningkatkan keamanan model, akurasi deteksi konten berbahaya, serta keterampilan Claude dalam pemrograman, analisis, dan penalaran.
Seperti perusahaan model bahasa besar lainnya, Anthropic butuh banyak data percakapan berkualitas tinggi dan mengakses jutaan interaksi Claude untuk melatih model AI supaya bisa bersaing dengan kompetitor seperti OpenAI dan Google.
Seiring dengan perkembangan cepat teknologi, kebijakan privasi pastinya akan berubah juga.
Namun, kebanyakan pengguna tidak menyadari bahwa pedoman yang telah mereka setujui telah berubah karena desainnya praktis menjamin perubahan tersebut.
Implementasi kebijakan baru Anthropic mengikuti pola yang sudah lazim dilakukan penyedia layanan AI.
Pengguna baru akan memilih preferensi mereka saat mendaftar, tetapi pengguna yang sudah ada akan menghadapi pop-up dengan tulisan "Pembaruan Ketentuan dan Kebijakan Konsumen" berukuran besar dan tombol "Terima" berwarna hitam mencolok dengan tombol sakelar yang jauh lebih kecil untuk izin pelatihan di bawahnya, dicetak lebih kecil, dan secara otomatis diatur ke "Aktif".
Seperti yang diamati leh The Verge, desain ini menimbulkan kekhawatiran bahwa pengguna mungkin dengan cepat mengklik "Terima" tanpa menyadari bahwa mereka menyetujui pembagian data.