Moltbook Menakutkan—Tetapi Bukan karena Alasan yang Banyak Diberitakan

(SeaPRwire) –   Halo dan selamat datang di Eye on AI. Dalam edisi ini… mengapa Anda sebenarnya harus khawatir tentang Moltbook… OpenAI mengincar IPO… Elon Musk menggabungkan SpaceX dan xAI… Pemula tidak mendapat manfaat sebanyak yang dipikirkan orang dari AI… dan mengapa kita membutuhkan regulasi AI sekarang.

Minggu ini, semua orang di dunia AI—dan banyak orang di luarnya—sedang membicarakan Moltbook. Platform media sosial yang dibuat untuk agen AI ini menjadi sensasi viral. Fenomena ini membuat banyak orang, bahkan sejumlah peneliti AI yang biasanya tenang dan berpijak pada realitas, bertanya-tanya dengan lantang seberapa jauh kita dari skenario “lepas landas” ala fiksi ilmiah di mana bot AI mengorganisir diri, meningkatkan diri sendiri, dan lepas dari kendali manusia.

Sekarang, tampaknya banyak kepanikan tentang Moltbook salah tempat. Pertama-tama, tidak jelas berapa banyak postingan yang paling mirip fiksi ilmiah di Moltbook yang dihasilkan secara spontan oleh bot dan berapa banyak yang hanya muncul karena pengguna manusia memerintahkan agen OpenClaw mereka untuk mengeluarkannya. (Bot di Moltbook semuanya dibuat menggunakan OpenClaw yang sedang hits, yang pada dasarnya adalah “harness” agen open-source—perangkat lunak yang memungkinkan agen AI menggunakan banyak alat perangkat lunak lain—yang dapat dipasangkan ke model AI dasar apa pun.) Bahkan mungkin saja sebagian postingan itu sebenarnya dari manusia yang menyamar sebagai bot.

Kedua, tidak ada bukti bahwa bot-bot itu benar-benar berkomplot bersama untuk melakukan hal-hal jahat, alih-alih hanya menirukan bahasa tentang persekongkolan yang mungkin mereka pelajari selama pelatihan, yang mencakup banyak literatur fiksi ilmiah serta catatan sejarah banyak aktivitas manusia yang meragukan di media sosial.

Seperti yang saya tunjukkan sebelumnya, banyak headline yang menebar ketakutan seputar Moltbook menggema dari headline yang menyertai eksperimen Facebook pada 2017 di mana dua chatbot mengembangkan “bahasa rahasia” untuk berkomunikasi satu sama lain. Dulu, seperti sekarang, banyak rekan jurnalis saya tidak membiarkan fakta menghalangi cerita yang menarik. Baik penelitian Facebook yang lebih lama itu maupun Moltbook tidak menghadirkan bahaya seperti Skynet yang disarankan oleh beberapa pemberitaan.

Sekarang untuk kabar buruknya

Tapi di situlah kurang lebih kabar baiknya berakhir. Moltbook menunjukkan bahwa dalam hal agen AI, kita berada di Wild Wild West. Seperti yang dikatakan kolega saya Bea Nolan, Moltbook adalah mimpi buruk keamanan siber, penuh dengan malware, scam pump and dump cryptocurrency, dan serangan prompt injection tersembunyi—yaitu instruksi yang dapat dibaca mesin, terkadang tidak mudah dideteksi orang, yang mencoba membajak agen AI untuk melakukan sesuatu yang tidak seharusnya dilakukan. Menurut para peneliti keamanan, tampaknya beberapa pengguna OpenClaw mengalami pelanggaran data yang signifikan setelah mengizinkan agen AI mereka masuk ke Moltbook.

Prompt injection adalah tantangan keamanan siber yang belum terpecahkan untuk semua agen AI yang dapat mengakses internet saat ini. Dan itulah mengapa banyak ahli AI mengatakan mereka sangat berhati-hati tentang perangkat lunak, alat, dan data apa yang mereka izinkan untuk diakses oleh agen AI. Beberapa hanya mengizinkan agen mengakses internet jika mereka berada dalam mesin virtual di mana mereka tidak dapat mengakses informasi penting, seperti kata sandi, file kerja, email, atau informasi perbankan. Namun di sisi lain, tindakan pencegahan keamanan ini membuat agen AI menjadi jauh kurang berguna. Alasan utama OpenClaw menjadi populer adalah karena orang menginginkan cara mudah untuk membuat agen melakukan hal-hal untuk mereka.

Lalu ada implikasi besar untuk keselamatan AI. Hanya karena tidak ada bukti bahwa agen OpenClaw memiliki kehendak independen, bukan berarti menempatkan mereka dalam percakapan yang tidak terkendali dengan agen AI lainnya adalah ide yang bagus. Begitu agen-agen ini memiliki akses ke alat dan internet, dalam beberapa hal tidak terlalu penting apakah mereka memiliki pemahaman tentang tindakan mereka sendiri atau sadar. Hanya dengan menirukan skenario fiksi ilmiah yang mereka serap selama pelatihan, mungkin saja agen AI dapat terlibat dalam aktivitas yang dapat menyebabkan bahaya nyata bagi banyak orang—melakukan serangan siber, misalnya. (Pada intinya, agen AI ini dapat berfungsi dengan cara yang tidak jauh berbeda dari virus komputer “worm” yang sangat kuat. Tidak ada yang mengira ransomware WannaCry itu sadar. Namun demikian, itu menyebabkan kerusakan besar di seluruh dunia.)

Mengapa Yann LeCun salah… tentang manusia, bukan AI

Beberapa tahun lalu, saya menghadiri sebuah acara di Facebook AI Research Lab di Paris di mana Yann LeCun, yang saat itu menjabat sebagai kepala ilmuwan AI Meta, berbicara. LeCun, yang baru-baru ini meninggalkan Meta untuk meluncurkan startup AI-nya sendiri, selalu skeptis terhadap skenario “lepas landas” di mana AI lolos dari kendali manusia. Dan dalam acara itu, dia mencemooh gagasan bahwa AI akan pernah menimbulkan risiko eksistensial.

Pertama, LeCun berpikir AI saat ini masih terlalu bodoh dan tidak dapat diandalkan untuk pernah melakukan hal yang membahayakan dunia. Tapi kedua, LeCun menganggap skenario “lepas landas” AI ini menghina para peneliti dan insinyur AI sebagai kelas profesional. Kami tidak bodoh, argumen LeCun. Jika kami pernah membangun sesuatu di mana ada peluang sekecil apa pun bagi AI untuk lolos dari kendali manusia, kami akan selalu membangunnya di dalam sandbox yang “terkunci rapat”, tanpa akses ke internet, dan dengan kill switch yang tidak dapat dinonaktifkan oleh AI. Menurut penuturan LeCun, para insinyur akan selalu dapat mengambil kapak untuk memutuskan kabel listrik komputer sebelum AI dapat menemukan cara untuk keluar dari sangkar digitalnya.

Nah, itu mungkin benar untuk para peneliti dan insinyur AI yang bekerja untuk perusahaan besar, seperti Meta, atau OpenAI atau Anthropic. Tapi sekarang AI—berkat munculnya agen dan asisten coding—telah mendemokratisasikan pembuatan AI itu sendiri. Sekarang, dunia yang penuh dengan pengembang independen dapat membuat agen AI. Peter Steinberger yang menciptakan OpenClaw adalah seorang pengembang independen. , yang menciptakan Moltbook, adalah seorang pengusaha independen yang membuat platform sosial tersebut dengan coding berdasarkan vibe. Dan, bertentangan dengan LeCun, pengembang independen secara konsisten telah menunjukkan kesediaan untuk melemparkan sistem AI keluar dari sandbox dan ke alam liar, hanya untuk melihat apa yang terjadi… hanya untuk LOLs.

Dengan demikian, berikut berita AI lainnya.

Jeremy Kahn

@jeremyakahn

Artikel ini disediakan oleh penyedia konten pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberikan jaminan atau pernyataan sehubungan dengan hal tersebut.

Sektor: Top Story, Daily News

SeaPRwire menyediakan distribusi siaran pers real-time untuk perusahaan dan lembaga, menjangkau lebih dari 6.500 toko media, 86.000 editor dan jurnalis, dan 3,5 juta desktop profesional di 90 negara. SeaPRwire mendukung distribusi siaran pers dalam bahasa Inggris, Korea, Jepang, Arab, Cina Sederhana, Cina Tradisional, Vietnam, Thailand, Indonesia, Melayu, Jerman, Rusia, Prancis, Spanyol, Portugis dan bahasa lainnya.