TRIBUNMANADO.CO.ID - Anthropic meluncurkan perlindungan baru di bawah kebijakan 'penskalaan yang bertanggung jawab', menetapkan garis merah untuk model yang dapat membantu dalam persenjataan, otomatisasi massal, atau percepatan teknologi yang tidak terkendali—berjanji untuk menghentikan pengembangan jika risiko melewati ambang batas kritis.
Anthropic, salah satu pesaing utama AI, telah merevisi kebijakan "penskalaan yang bertanggung jawab" untuk menentukan kapan model AI-nya menjadi terlalu kuat, yang memerlukan langkah-langkah keamanan yang lebih baik. Ambang batas utamanya? Jika model AI dapat membantu mengembangkan senjata pemusnah massal.
Menurut CNBC, pengujian internal akan memicu protokol keamanan tambahan jika model AI dapat memungkinkan negara dengan sumber daya menengah untuk mengembangkan senjata kimia atau biologi. Meskipun skenario tersebut sedang dinilai, implikasinya tetap meresahkan.
Tanda bahaya lainnya termasuk kemampuan model untuk sepenuhnya mengotomatiskan peran seperti peneliti junior di Anthropic atau jika kemampuannya mempercepat kemajuan teknologi terlalu cepat.
Pembaruan kebijakan ini muncul di tengah persaingan sengit AI yang dipicu oleh investasi besar-besaran dan persaingan global. Anthropic, yang didukung oleh Amazon dan bernilai 61,5 miliar dolar, tertinggal dari pemimpin industri OpenAI, yang baru-baru ini menutup putaran pendanaan rekor dengan valuasi 300 miliar dolar.
Dikutip YNet, Anthropic tampaknya menepati janji sebelumnya, membentuk "dewan manajemen risiko" dan tim keamanan internal. Perusahaan tersebut juga menggunakan teknik kontra-pengawasan ala Perang Dingin, memindai kantor-kantor untuk mencari perangkat mata-mata tersembunyi.
Singkatnya, Anthropic berupaya menetapkan batasan yang jelas untuk kemampuan AI yang berbahaya, khususnya yang terkait dengan senjata pemusnah massal, sekaligus memperkuat keamanan internalnya. Apakah langkah-langkah ini akan cukup untuk mengendalikan kemajuan teknologi AI yang pesat masih menjadi pertanyaan yang bernilai triliunan dolar. (Tribun)
Contact to : xlf550402@gmail.com
Copyright © boyuanhulian 2020 - 2023. All Right Reserved.