Kepala AI Meta Yann LeCun tentang KI Umum, Sumber Terbuka, dan Risiko KI

(SeaPRwire) –   Kepala ilmuwan AI, , menerima penghargaan lain untuk ditambahkan ke dalam daftar panjang pencapaiannya pada hari Minggu, ketika dia dengan TIME100 Impact Award atas kontribusinya ke dunia kecerdasan buatan.

Menjelang upacara penganugerahan di Dubai, LeCun duduk bersama TIME untuk membahas hambatan dalam mencapai “kecerdasan umum buatan” (AGI), manfaat pendekatan open-source dari Meta, dan apa yang dia lihat sebagai klaim “konyol” bahwa AI dapat menimbulkan risiko eksistensial bagi umat manusia.

TIME berbicara dengan LeCun pada tanggal 26 Januari. Percakapan ini telah dipadatkan dan diedit agar lebih jelas.

Banyak orang di dunia teknologi saat ini percaya bahwa melatih model bahasa besar (LLM) pada daya komputasi dan lebih banyak data akan mengarah pada kecerdasan umum buatan. Apakah Anda setuju?

Sungguh mengherankan bagaimana [LLM] bekerja, jika Anda melatihnya dalam skala besar, tetapi sangat terbatas. Kita melihat hari ini bahwa sistem tersebut berhalusinasi, mereka tidak benar-benar memahami dunia nyata. Mereka membutuhkan sejumlah besar data untuk mencapai tingkat kecerdasan yang pada akhirnya tidak terlalu bagus. Dan mereka tidak bisa benar-benar berpikir. Mereka tidak dapat merencanakan apa pun selain hal-hal yang telah dilatih. Jadi, mereka bukan jalan menuju apa yang orang sebut “AGI.” Saya benci istilah itu. Mereka berguna, tidak ada pertanyaan. Tetapi mereka bukanlah jalan menuju kecerdasan tingkat manusia.

Anda menyebutkan Anda membenci singkatan “AGI.” Itu adalah istilah yang digunakan Mark Zuckerberg pada bulan Januari, ketika dia mengumumkan bahwa Meta berporos ke arah membangun kecerdasan umum buatan sebagai salah satu tujuan utamanya sebagai sebuah organisasi.

Ada banyak kesalahpahaman di sana. Jadi misi FAIR [tim Riset AI Fundamental Meta] adalah kecerdasan tingkat manusia. Kapal ini telah berlayar, itu adalah pertempuran yang telah saya kalahkan, tetapi saya tidak suka menyebutnya AGI karena kecerdasan manusia sama sekali tidak bersifat umum. Ada karakteristik yang dimiliki makhluk cerdas yang sampai saat ini tidak dimiliki oleh sistem AI apa pun, seperti memahami dunia fisik; merencanakan serangkaian tindakan untuk mencapai tujuan; bernalar dengan cara yang dapat memakan waktu lama. Manusia, hewan, memiliki bagian khusus dari otak yang kami gunakan sebagai memori kerja. LLM tidak memiliki itu.

Seorang bayi belajar bagaimana dunia bekerja dalam beberapa bulan pertama kehidupan. Kami tidak tahu bagaimana melakukan ini [dengan AI]. Begitu kita memiliki teknik untuk mempelajari “model dunia” hanya dengan mengamati dunia berlalu, dan menggabungkan ini dengan teknik perencanaan, dan mungkin menggabungkan ini dengan sistem memori jangka pendek, maka kita mungkin memiliki jalan menuju, bukan kecerdasan umum, melainkan mari kita katakan tingkat kecerdasan kucing. Sebelum kita mencapai tingkat manusia, kita akan melalui bentuk-bentuk kecerdasan yang lebih sederhana. Dan kita masih sangat jauh dari itu.

Dalam beberapa hal, metafora itu masuk akal, karena kucing dapat melihat ke dunia dan mempelajari hal-hal yang tidak dapat dilakukan oleh LLM terbaru. Namun, seluruh ringkasan sejarah pengetahuan manusia tidak tersedia untuk seekor kucing. Sejauh mana keterbatasan metafora itu?

Jadi, ini perhitungan yang sangat sederhana. Model bahasa besar dilatih pada seluruh teks yang tersedia di internet, kurang lebih. Biasanya, itu 10 triliun token. Setiap token kira-kira dua byte. Jadi, itu dua kali 10 hingga [pangkat] 13 byte untuk data pelatihan. Dan Anda berkata, Ya Tuhan, itu luar biasa, manusia akan membutuhkan 170.000 tahun untuk membaca ini semua. Ini adalah jumlah data yang sangat gila. Tetapi kemudian Anda berbicara kepada psikolog perkembangan, dan apa yang mereka katakan kepada Anda adalah bahwa seorang anak berusia 4 tahun telah terjaga selama 16.000 jam dalam hidupnya. Dan kemudian Anda dapat mencoba mengukur berapa banyak informasi yang masuk ke korteks visualnya dalam waktu empat tahun. Dan saraf optik sekitar 20 megabyte per detik. Jadi 20 megabyte per detik, kali 60.000 jam, kali 3.600 detik per jam. Dan itu 10 hingga [pangkat] 15 byte, yang 50 kali lebih banyak daripada teks senilai 170.000 tahun.

Benar, tetapi teks tersebut mengkodekan seluruh sejarah pengetahuan manusia, sedangkan informasi visual yang diperoleh anak berusia 4 tahun hanya mengkodekan informasi dasar 3D tentang dunia, bahasa dasar, dan hal-hal seperti itu.

Namun, apa yang Anda katakan salah. Sebagian besar pengetahuan manusia tidak diungkapkan dalam teks. Itu ada di bagian bawah sadar pikiran Anda, yang Anda pelajari pada tahun pertama kehidupan sebelum Anda dapat berbicara. Sebagian besar pengetahuan benar-benar ada hubungannya dengan pengalaman kita tentang dunia dan cara kerjanya. Itulah yang kita sebut akal sehat. LLM tidak memilikinya, karena mereka tidak memiliki akses ke sana. Jadi, mereka dapat membuat kesalahan yang sangat bodoh. Di situlah halusinasi berasal. Hal-hal yang kita terima sepenuhnya ternyata sangat rumit untuk direproduksi oleh komputer. Jadi AGI, atau AI tingkat manusia, tidak hanya tinggal menunggu waktu, itu akan membutuhkan beberapa perubahan persepsi yang cukup mendalam.

Mari kita bicarakan tentang sumber terbuka. Anda telah menjadi pendukung besar penelitian terbuka dalam karier Anda, dan Meta telah menerapkan kebijakan untuk menjadikan model bahasa besar terkuatnya sebagai sumber terbuka, yang terbaru adalah . Strategi ini membuat Meta berbeda dari Google dan Microsoft yang tidak merilis apa yang disebut bobot dari sistem terkuatnya. Apakah menurut Anda pendekatan Meta akan terus sesuai ketika AI-nya menjadi semakin kuat, bahkan mendekati kecerdasan tingkat manusia?

Jawaban tingkat pertama adalah ya. Dan alasannya adalah, di masa depan, interaksi setiap orang dengan dunia digital, dan dunia pengetahuan secara lebih umum, akan dimediasi oleh sistem AI. Mereka pada dasarnya akan berperan sebagai asisten manusia yang akan selalu bersama kita. Kita tidak akan menggunakan mesin pencari. Kami hanya akan mengajukan pertanyaan kepada asisten kami, dan itu akan membantu kami dalam kehidupan sehari-hari. Jadi seluruh informasi yang kami makan akan dimediasi oleh sistem ini. Mereka akan menjadi tempat penyimpanan seluruh pengetahuan manusia. Dan Anda tidak dapat memiliki ketergantungan semacam ini pada sistem kepemilikan tertutup, khususnya mengingat beragamnya bahasa, budaya, nilai, pusat minat di seluruh dunia. Seolah-olah Anda berkata, bisakah Anda memiliki entitas komersial, di suatu tempat di Pantai Barat AS, memproduksi Wikipedia? Tidak. Wikipedia adalah crowdsourcing karena berhasil. Jadi akan sama untuk sistem AI, mereka harus dilatih, atau setidaknya disetel dengan bantuan semua orang di seluruh dunia. Dan orang-orang hanya akan melakukan ini jika mereka dapat berkontribusi ke platform terbuka yang tersedia secara luas. Mereka tidak akan melakukan ini untuk sistem milik. Jadi masa depan harus menjadi open source, jika tidak ada alasan lain, untuk alasan keragaman budaya, demokrasi, keragaman. Kita membutuhkan asisten AI yang beragam karena alasan yang sama kita membutuhkan pers yang beragam. 

Salah satu kritik yang banyak Anda dengar adalah bahwa sumber terbuka dapat memungkinkan alat yang sangat kuat jatuh ke tangan orang-orang yang akan menyalahgunakannya. Dan bahwa jika ada derajat asimetri dalam kekuatan serangan versus kekuatan pertahanan, maka itu bisa sangat berbahaya bagi masyarakat secara keseluruhan. Apa yang membuat Anda yakin bahwa itu tidak akan terjadi?

Ada banyak hal yang dikatakan tentang hal ini yang pada dasarnya merupakan fantasi belaka. Sebenarnya ada yang baru saja diterbitkan oleh RAND Corporation tempat mereka mempelajari, dengan sistem saat ini, seberapa mudah [itu] bagi orang-orang yang berniat buruk untuk menghasilkan resep senjata biologis? Dan jawabannya adalah: tidak. Alasannya karena sistem saat ini tidak terlalu pintar. Mereka dilatih pada data publik. Jadi pada dasarnya, mereka tidak dapat menemukan hal-hal baru. Mereka akan memuntahkan kira-kira apa pun yang mereka latih dari data publik, yang berarti Anda bisa mendapatkannya dari Google. Orang-orang berkata, “Ya Tuhan, kita perlu mengatur LLM karena mereka akan sangat berbahaya.” Itu tidak benar. 

Artikel ini disediakan oleh penyedia konten pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberikan jaminan atau pernyataan sehubungan dengan hal tersebut.

Sektor: Top Story, Daily News

SeaPRwire menyediakan distribusi siaran pers real-time untuk perusahaan dan lembaga, menjangkau lebih dari 6.500 toko media, 86.000 editor dan jurnalis, dan 3,5 juta desktop profesional di 90 negara. SeaPRwire mendukung distribusi siaran pers dalam bahasa Inggris, Korea, Jepang, Arab, Cina Sederhana, Cina Tradisional, Vietnam, Thailand, Indonesia, Melayu, Jerman, Rusia, Prancis, Spanyol, Portugis dan bahasa lainnya. 

Sekarang, sistem di masa depan adalah cerita yang berbeda. Jadi mungkin begitu kita mendapatkan sistem yang