(SeaPRwire) – Elon Musk memiliki visi ambisius tentang kehidupan dengan AI: Teknologi ini akan mengambil semua pekerjaan kita, sementara “pendapatan tinggi universal” akan berarti siapa pun dapat mengakses kelimpahan barang dan jasa secara teoritis. Asalkan mimpi tinggi Musk bisa menjadi kenyataan, tentu saja akan ada pertimbangan eksistensial yang mendalam.
“Pertanyaannya sebenarnya adalah tentang makna,” kata Musk di konferensi Viva Technology pada Mei 2024. “Jika komputer bisa melakukan—dan robot bisa melakukan—segala sesuatu lebih baik dari Anda … apakah hidup Anda memiliki makna?”
Tetapi sebagian besar pemimpin industri tidak menanyakan pertanyaan ini pada diri mereka sendiri tentang akhir permainan AI, menurut pemenang Nobel dan “bapak AI” Geoffrey Hinton. Dalam mengembangkan AI, Big Tech kurang tertarik pada konsekuensi jangka panjang teknologi ini—dan lebih khawatir dengan hasil cepat.
“Bagi pemilik perusahaan, yang mendorong penelitian adalah keuntungan jangka pendek,” kata Hinton, profesor emeritus ilmu komputer di University of Toronto, kepada .
Dan bagi pengembang di balik teknologi ini, fokusnya juga pada pekerjaan yang langsung di depan mereka, bukan pada hasil akhir penelitian itu sendiri.
“Peneliti tertarik untuk memecahkan masalah yang membangkitkan rasa ingin tahu mereka. Bukannya kita memulai dengan tujuan yang sama, yaitu bagaimana masa depan umat manusia?” kata Hinton.
“Kami memiliki tujuan-tujuan kecil ini, bagaimana Anda akan membuatnya? Atau, bagaimana seharusnya Anda membuat komputer Anda mampu mengenali benda-benda dalam gambar? Bagaimana Anda membuat komputer mampu menghasilkan video yang meyakinkan?” tambahnya. “Itu yang sebenarnya mendorong penelitian.”
Hinton telah lama memperingatkan tentang bahaya AI tanpa pengaman dan evolusi yang disengaja, memperkirakan peluang 10% hingga 20% teknologi ini akan memusnahkan manusia setelah pengembangan superintelligence.
Pada tahun 2023—10 tahun setelah ia menjual perusahaan jaringan saraf tiruannya DNNresearch kepada Google—Hinton meninggalkan perannya di raksasa teknologi tersebut, ingin berbicara bebas tentang bahaya teknologi ini dan khawatir akan ketidakmampuan untuk “mencegah pelaku jahat menggunakannya untuk hal-hal buruk.”
Apa risiko AI yang tidak diatur?
Bagi Hinton, bahaya AI terbagi menjadi dua kategori: risiko yang ditimbulkan teknologi itu sendiri terhadap masa depan umat manusia, dan konsekuensi AI dimanipulasi oleh orang-orang dengan niat jahat.
“Ada perbedaan besar antara dua jenis risiko yang berbeda,” katanya. “Ada risiko pelaku jahat menyalahgunakan AI, dan itu sudah ada di sini. Itu sudah terjadi dengan hal-hal seperti video palsu dan serangan siber, dan mungkin terjadi sangat cepat dengan virus. Dan itu sangat berbeda dari risiko AI itu sendiri menjadi pelaku jahat.”
Pada November 2025, Anthropic mengatakan telah menggagalkan “kasus pertama yang didokumentasikan dari serangan siber AI skala besar yang dilakukan tanpa intervensi manusia yang substansial,” mengidentifikasi kelompok yang disponsori negara China yang memanipulasi Claude Code dalam upaya untuk menyusupi sekitar 30 perusahaan teknologi, lembaga keuangan, instansi pemerintah, dan produsen kimia, kata perusahaan AI tersebut dalam sebuah postingan blog.
Gangguan tersebut telah membuat para ahli keamanan siber percaya bahwa Iran bisa menggunakan AI untuk melakukan serangan siber yang sebagian besar otomatis terhadap U.S.
Di luar mengadvokasi lebih banyak regulasi, seruan Hinton untuk bertindak mengatasi potensi AI untuk perbuatan jahat adalah pertarungan yang sulit karena setiap masalah dengan teknologi ini memerlukan solusi yang terpisah, katanya. Ia membayangkan otentikasi semacam provenance untuk video dan gambar di masa depan yang akan melawan penyebaran deepfake.
Sama seperti pencetak menambahkan nama ke karya mereka setelah munculnya mesin cetak ratusan tahun lalu, sumber media juga perlu menemukan cara untuk menambahkan tanda tangan mereka ke karya asli mereka. Tetapi Hinton mengatakan perbaikan hanya bisa sejauh ini.
“Masalah itu mungkin bisa dipecahkan, tetapi solusi untuk masalah itu tidak memecahkan masalah lainnya,” katanya.
Untuk risiko yang ditimbulkan AI itu sendiri, Hinton percaya perusahaan teknologi perlu secara fundamental mengubah cara mereka melihat hubungan mereka dengan AI. Ketika AI mencapai superintelligence, katanya, ia tidak hanya akan melampaui kemampuan manusia, tetapi memiliki keinginan kuat untuk bertahan hidup dan mendapatkan kontrol tambahan. Kerangka kerja saat ini seputar AI—bahwa manusia bisa mengendalikan teknologi—oleh karena itu tidak akan relevan lagi.
Hinton mengajukan bahwa model AI perlu ditanamkan dengan “insting maternal” sehingga bisa memperlakukan manusia yang kurang kuat dengan simpati, bukan keinginan untuk mengendalikannya.
Dengan mengutamakan ideal femininitas tradisional, katanya satu-satunya contoh yang bisa ia kutip tentang makhluk yang lebih cerdas jatuh di bawah pengaruh makhluk yang kurang cerdas adalah bayi yang mengendalikan ibunya.
“Jadi saya pikir itu adalah model yang lebih baik yang bisa kita terapkan dengan AI superintelligent,” kata Hinton. “Mereka akan menjadi ibu-ibu, dan kita akan menjadi bayi-bayi.”
Versi dari cerita ini diterbitkan di .com pada 15 Agustus 2025.
Lebih lanjut tentang masa depan AI:
- Jensen Huang baru saja menggambarkan gambar paling berani tentang masa depan AI: 7,5 juta agen, 75.000 manusia—100 pekerja AI untuk setiap orang
- 500 firm memperbarui label harga AI menjadi $4,5 triliun, memperkirakan 93% pekerjaan rentan terhadap gangguan
- AI seharusnya mematikan konsultan. Ini tidak terjadi, kata kepala strategi Capgemini
Artikel ini disediakan oleh penyedia konten pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberikan jaminan atau pernyataan sehubungan dengan hal tersebut.
Sektor: Top Story, Daily News
SeaPRwire menyediakan distribusi siaran pers real-time untuk perusahaan dan lembaga, menjangkau lebih dari 6.500 toko media, 86.000 editor dan jurnalis, dan 3,5 juta desktop profesional di 90 negara. SeaPRwire mendukung distribusi siaran pers dalam bahasa Inggris, Korea, Jepang, Arab, Cina Sederhana, Cina Tradisional, Vietnam, Thailand, Indonesia, Melayu, Jerman, Rusia, Prancis, Spanyol, Portugis dan bahasa lainnya.