Surga atau Bencana? Perlombaan Membangun AI Super Pintar Bisa Jadi Taruhan Terbesar - Termasuk di Dunia Kripto

Surga atau Bencana? Perlombaan Membangun AI Super Pintar Bisa Jadi Taruhan Terbesar - Termasuk di Dunia Kripto

Khawatir dengan AI? Kamu Tidak Sendirian

Saya harus dua kali mewawancarai tim dari Sentient untuk benar-benar memahami apa yang mereka kerjakan. Saya bukan ahli kecerdasan buatan (AI), dan terus terang, topik ini cukup menakutkan buat saya. Sejak mendengar peneliti keamanan AI, Eliezer Yudkowsky, berbicara di podcast Bankless tahun 2023, ucapannya terus terngiang di kepala saya:

“Saya pikir kita mulai mendengar tiupan angin terakhir dan kain kenyataan mulai robek.”

Saya berusaha tetap terbuka dan mencoba memahami AI—dari bereksperimen dengan prompt sampai membuat meme. Tapi rasa cemas itu tetap ada. Terutama karena para pembuat teknologi ini tidak memberi cukup rasa aman. Masyarakat umum pun tampaknya mulai kebal: ada yang tertawa soal kemungkinan kepunahan manusia, ada juga yang hanya bisa merenungkannya selama durasi video YouTube Shorts.

Apa Itu Sentient?

Sentient adalah perusahaan AI baru. Pendiri utamanya, Himanshu Tyagi, adalah profesor di bidang AI dan kriptografi. Kepala stafnya, Vivek Kolli, lulusan Princeton yang dulunya kerja di BCG, membantu perusahaan miliaran dolar menghasilkan lebih banyak uang—sebelum memutuskan membangun AI.

Tim mereka sangat cerdas. Tapi itu justru memunculkan pertanyaan besar: Kalau mereka saja sudah sepintar itu, seberapa hebat AGI (Artificial General Intelligence/AI selevel dewa) nanti?

AGI punya banyak definisi. Elon Musk bilang itu AI yang lebih pintar dari manusia paling pintar. CEO OpenAI, Sam Altman, menjelaskan bahwa AGI adalah AI yang bisa menyelesaikan masalah kompleks di berbagai bidang, selevel manusia.

Versi Sentient agak berbeda. Mereka percaya AGI adalah gabungan banyak AI yang saling bersaing dan membangun satu sama lain. Dan mereka ingin setiap orang bisa ikut berkontribusi, bukan hanya perusahaan raksasa.

Uang Besar di Balik AI

Sentient mendapat pendanaan awal sebesar $85 juta pada 2024 dari investor seperti Founders Fund milik Peter Thiel (investor awal OpenAI), Pantera Capital, dan Framework Ventures—semuanya juga terlibat di dunia crypto.

UAE (Uni Emirat Arab) sedang jor-joran investasi di AI, ingin jadi pusat teknologi global. Arab Saudi bahkan menjanjikan $600 miliar untuk industri AS dan $20 miliar khusus untuk pusat data AI. Nilai pasar AI di UAE diperkirakan mencapai $46,3 miliar pada 2031—setara 20% dari PDB mereka.

Sementara itu, perusahaan-perusahaan besar saling rebutan talenta AI, menawarkan bonus tanda tangan sampai $100 juta. Angkanya sudah seperti lelucon. Tapi ini menggambarkan betapa seriusnya perlombaan menuju AGI.

Bahaya Jika AGI Dikuasai Satu Pihak

Kalau satu negara atau perusahaan besar seperti Microsoft atau OpenAI berhasil menciptakan AGI duluan, apa yang terjadi? Kata Kolli:

“Mereka akan simpan sendiri... Bayangkan kalau semua informasi di internet dikendalikan satu pihak. Itu akan jadi neraka.”

Karena itulah Sentient hadir—untuk melawan dominasi model AI tertutup. Menurut mereka, OpenAI awalnya menjanjikan akan jadi organisasi non-profit dan terbuka, tapi berubah total setelah tahu AI bisa menghasilkan banyak uang.

Solusi: AI Terbuka dan Terdesentralisasi

Sentient ingin membangun ekosistem AI yang terbuka dan terdesentralisasi. Di sini, siapa pun dari mana pun bisa membangun model AI, menghasilkan uang, dan berkontribusi dalam pengembangan teknologi.

Tyagi bilang bahwa AI tidak harus bersifat “pemenang ambil semua”. Semua orang punya perspektif dan pengetahuan untuk disumbangkan. Tapi dengan AI terbuka, ada risiko—AI bisa disalahgunakan.

Latih AI yang Setia: Alignment Training

Untuk mengatasi itu, Sentient melatih model AI-nya agar setia pada nilai-nilai tertentu, seperti pro-crypto dan pro-kebebasan individu. Caranya? Mereka ambil model open-source seperti Llama dari Meta, copot batasannya, lalu latih ulang agar AI berpikir sesuai arah yang diinginkan.

Contohnya, mereka tidak ingin AI yang dibangun di atas ChatGPT menyarankan orang menghindari investasi Bitcoin hanya karena dianggap “berisiko”. AI harus berpikir seperti komunitas kripto.

Kolli membandingkan pelatihan ini seperti cara pemerintah komunis membentuk pemikiran rakyatnya lewat pendidikan. Konsep yang sama bisa diterapkan ke AI.

Tapi, Apa Aman?

Saya tanya, bagaimana kalau ada pihak jahat yang juga bisa “melepas rem” dan melatih AI untuk tujuan berbahaya?

Kolli menjawab: tidak mudah melakukannya. Dibutuhkan keahlian tinggi dan waktu yang lama. Tapi dia akui, secara teori memang bisa terjadi.

“Kami bertanggung jawab... dan kami harap semua orang juga begitu,” katanya.

Jujur saja, itu belum cukup membuat saya tenang.

Konstitusi untuk AI

Sentient membuat panduan eksplisit untuk AI mereka—seperti model “Mini Unhinged Llama” yang pro-crypto. Mereka juga melakukan riset soal hukum perusahaan, dan hasilnya menunjukkan bahwa banyak model AI masih lemah dalam penalaran hukum yang kompleks.

Artinya: AI sekarang belum siap untuk digunakan dalam keputusan penting seperti hukum, keuangan, atau kebijakan publik—apalagi jika tidak diawasi dengan ketat.

Bagaimana Nasib Pekerjaan?

Saya bertanya pada Tyagi dan Kolli soal ancaman AI terhadap pekerjaan manusia. Tyagi bilang, seperti internet dulu, AI akan mengganti beberapa pekerjaan tapi menciptakan yang baru. Dia yakin manusia akan menemukan nilai baru.

Kolli setuju, tapi memberi peringatan keras:

“Dalam 3 tahun, banyak orang akan sadar pekerjaannya hilang dan sudah terlambat belajar AI.”

Katanya lagi, jurnalis dan penulis kini hanya punya satu keunggulan: koneksi manusiawi dalam tulisan mereka. Sesuatu yang AI belum bisa tiru.

Apakah Kita Akan Punah?

Beberapa ahli AI besar mulai mengkhawatirkan hal itu. Geoffrey Hinton menyamakan AGI seperti memelihara anak harimau yang suatu hari bisa membunuhmu jika ia tumbuh liar.

Sam Altman dari OpenAI bahkan berkata:

“Skenario terbaik dari AGI sangat luar biasa. Tapi skenario terburuk? Lampu padam untuk seluruh umat manusia.”

Tyagi bilang itu “masalah teknik” saja. Tapi saya tidak yakin masa depan umat manusia bisa disederhanakan seperti bug di software.

Kesimpulan

Saya ingin bisa optimis. Tapi di tengah perlombaan AI, miliaran dolar, dan potensi kehancuran yang kita sendiri ciptakan—kita harus membicarakan hal ini secara terbuka. Bukan di ruang tertutup atau di balik kode tertutup.

Seperti kata Geoffrey Hinton:

“Akan sangat gila kalau umat manusia punah hanya karena kita terlalu malas untuk mencoba mencegahnya.”