(SeaPRwire) – Perusahaan-perusahaan AI terkemuka di dunia memiliki tingkat manajemen risiko yang “tidak dapat diterima,” dan “kurangnya komitmen yang mencolok terhadap banyak bidang keselamatan,” menurut dua studi baru yang diterbitkan pada hari Kamis.
Risiko AI saat ini—menurut pengakuan banyak perusahaan terkemuka sendiri—dapat mencakup AI yang membantu pelaku jahat melakukan serangan siber atau membuat senjata biologis. Model AI masa depan, yang dikhawatirkan para ilmuwan terkemuka, dapat sepenuhnya lolos dari kendali manusia.
Studi-studi tersebut dilakukan oleh organisasi nirlaba SaferAI dan FLI. Masing-masing merupakan yang pertama, dalam apa yang diharapkan kelompok-kelompok tersebut akan menjadi seri yang berkelanjutan yang memberi insentif kepada perusahaan-perusahaan AI terkemuka untuk meningkatkan praktik mereka.
“Kami ingin mempermudah orang untuk melihat siapa yang tidak hanya berbicara, tetapi juga melakukan tindakan nyata,” kata Max Tegmark, presiden FLI.
SaferAI memberi peringkat protokol manajemen risiko perusahaan-perusahaan AI terkemuka (juga dikenal sebagai kebijakan penskalaan yang bertanggung jawab) untuk memberi skor pada setiap perusahaan atas pendekatan mereka dalam mengidentifikasi dan mengurangi risiko AI.
Tidak ada perusahaan AI yang mendapat skor lebih baik dari “lemah” dalam penilaian SaferAI terhadap kematangan manajemen risiko mereka. Pencetak skor tertinggi adalah Anthropic (35%), diikuti oleh OpenAI (33%), Meta (22%), dan Google DeepMind (20%). xAI milik Elon Musk mencetak 18%.
Dua perusahaan, Anthropic dan Google DeepMind, menerima skor lebih rendah daripada saat studi pertama kali dilakukan, pada Oktober 2024. Hasilnya berarti OpenAI telah menyalip Google sebagai tempat kedua dalam peringkat SaferAI.
Siméon Campos, pendiri SaferAI, mengatakan Google mendapat skor yang relatif rendah meskipun melakukan beberapa penelitian keselamatan yang baik, karena perusahaan membuat sedikit komitmen yang solid dalam kebijakannya. Perusahaan juga merilis model frontier awal tahun ini, Gemini 2.5, tanpa membagikan informasi keselamatan—dalam apa yang disebut Campos sebagai “kegagalan yang mencolok.” Seorang juru bicara Google DeepMind mengatakan kepada TIME: “Kami berkomitmen untuk mengembangkan AI dengan aman dan terjamin untuk memberi manfaat bagi masyarakat. Tindakan keselamatan AI mencakup spektrum mitigasi potensial yang luas. Laporan-laporan terbaru ini tidak memperhitungkan semua upaya keselamatan AI Google DeepMind, atau semua tolok ukur industri. Pendekatan komprehensif kami terhadap keselamatan dan keamanan AI jauh melampaui apa yang tercakup.”
Skor Anthropic juga menurun sejak penilaian SaferAI pada bulan Oktober. Ini sebagian disebabkan oleh perubahan yang dilakukan perusahaan pada hari-hari sebelum rilis model Claude 4, yang membuat Anthropic menghapus komitmennya untuk mengatasi ancaman orang dalam pada saat merilis model dengan kaliber tersebut. “Itu adalah proses yang sangat buruk,” kata Campos. Anthropic tidak segera menanggapi permintaan komentar.
Para penulis studi juga mengatakan bahwa metodologinya menjadi lebih rinci sejak Oktober lalu, yang menjelaskan beberapa perbedaan dalam penilaian.
Perusahaan-perusahaan yang meningkatkan skor mereka paling banyak adalah xAI, yang mencetak 18% dibandingkan dengan 0% pada bulan Oktober; dan Meta, yang mencetak 22% dibandingkan dengan skor sebelumnya yaitu 14%.
Studi FLI lebih luas—tidak hanya melihat praktik manajemen risiko, tetapi juga pendekatan perusahaan terhadap bahaya saat ini, keselamatan eksistensial, tata kelola, dan berbagi informasi. Sebuah panel yang terdiri dari enam ahli independen memberi skor pada setiap perusahaan berdasarkan tinjauan materi yang tersedia untuk umum seperti kebijakan, makalah penelitian, dan laporan berita, bersama dengan data nonpublik tambahan yang diberi kesempatan untuk diberikan oleh perusahaan. Nilai tertinggi dicetak oleh Anthropic (C plus). OpenAI mencetak C, dan Google mencetak C minus. (xAI dan Meta sama-sama mencetak D.)
Namun, dalam skor FLI untuk pendekatan setiap perusahaan terhadap “keselamatan eksistensial,” setiap perusahaan mencetak D atau di bawahnya. “Mereka semua mengatakan: kami ingin membangun mesin super cerdas yang dapat mengakali manusia dalam segala hal, namun, mereka tidak memiliki rencana tentang bagaimana mereka akan mengendalikan hal ini,” kata Tegmark.
Artikel ini disediakan oleh penyedia konten pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberikan jaminan atau pernyataan sehubungan dengan hal tersebut.
Sektor: Top Story, Daily News
SeaPRwire menyediakan distribusi siaran pers real-time untuk perusahaan dan lembaga, menjangkau lebih dari 6.500 toko media, 86.000 editor dan jurnalis, dan 3,5 juta desktop profesional di 90 negara. SeaPRwire mendukung distribusi siaran pers dalam bahasa Inggris, Korea, Jepang, Arab, Cina Sederhana, Cina Tradisional, Vietnam, Thailand, Indonesia, Melayu, Jerman, Rusia, Prancis, Spanyol, Portugis dan bahasa lainnya.
“`