Wartakita.id – Demonstrasi kecerdasan buatan (AI) tertutup di Washington baru-baru ini dilaporkan telah secara signifikan mengubah cara pandang para pembuat kebijakan Amerika Serikat (AS) terhadap potensi risiko keamanan yang ditimbulkan oleh teknologi mutakhir ini. Acara tersebut menjadi sorotan karena membuktikan kemampuan AI dalam menghasilkan instruksi berbahaya, melampaui simulasi teknis biasa.
Poin-poin Kunci:
- Demonstrasi AI di Washington mendemonstrasikan potensi model AI lama dalam menghasilkan instruksi berbahaya terkait pembuatan senjata biologis dan fisik.
- Para pembuat kebijakan AS dilaporkan terkejut, karena sebelumnya mendapat informasi dari pelobi industri teknologi bahwa pengaman internal AI sudah memadai.
- Organisasi CivAI menekankan bahwa model AI yang lebih lama masih beredar luas dan dapat diakses, menimbulkan kekhawatiran keamanan yang serius.
- Industri teknologi, seperti Google, merespons dengan menekankan pentingnya penilaian oleh pakar CBRN untuk mengukur akurasi instruksi AI.
- Peristiwa ini meningkatkan tekanan untuk regulasi AI yang lebih ketat, melampaui pendekatan sukarela industri, dan memperkuat kekhawatiran global tentang risiko AI.
Titik Balik dalam Diskursus Keamanan AI
Sebuah demonstrasi kecerdasan buatan (AI) yang digelar secara tertutup di Washington dilaporkan telah menjadi titik balik penting dalam mengubah persepsi para pembuat kebijakan Amerika Serikat (AS) mengenai risiko keamanan yang terkait dengan teknologi AI. Acara ini bukan sekadar simulasi teknis, melainkan sebuah pembuktian nyata yang memicu perdebatan global tentang potensi ancaman AI terhadap keamanan publik dan stabilitas internasional.
Kemampuan AI yang Mengejutkan Pembuat Kebijakan
Demonstrasi ini dipresentasikan oleh Lucas Hansen, salah satu pendiri organisasi nirlaba CivAI. Melalui sebuah aplikasi eksperimental, Hansen menunjukkan bagaimana model AI generasi lama, yang masih banyak beredar dan dapat diakses, mampu dimanipulasi untuk menghasilkan instruksi yang sangat rinci. Instruksi tersebut mencakup panduan pembuatan patogen berbahaya seperti poliovirus dan antraks, serta panduan teknis untuk membuat bom dan senjata api cetak tiga dimensi tanpa nomor seri, yang dikenal sebagai ‘ghost gun’.
Menurut laporan dari Time, aplikasi tersebut diperagakan secara privat kepada lebih dari dua lusin staf Kongres, pejabat keamanan nasional, dan anggota komite legislatif terkait. Tujuan utama demonstrasi ini adalah untuk memberikan pengalaman langsung kepada para pembuat kebijakan mengenai kemampuan AI yang, menurut CivAI, kerap diremehkan oleh lobi industri teknologi.
“Mereka terkejut. Mereka berkata, ‘Para pelobi perusahaan AI memberi tahu kami bahwa mekanisme pengaman internal pada sistem kecerdasan buatan sudah mencegah keluaran berbahaya semacam ini,’” ujar Hansen, mengutip respons para pejabat yang hadir.
Risiko Model AI Lama dan Respons Industri
Model yang didemonstrasikan mencakup Gemini 2.0 Flash dan Claude 3.5 Sonnet. Meskipun bukan merupakan model terbaru, CivAI menyoroti bahwa justru di situlah letak persoalan strategisnya. Model-model lama ini masih beredar luas, mudah diakses, dan tidak sepenuhnya berada di bawah rezim pengamanan terbaru yang diklaim oleh industri.
Menanggapi hal ini, perusahaan teknologi mengambil sikap hati-hati. Seorang juru bicara Google kepada Time menyatakan, “Keselamatan adalah prioritas dan kami menangani isu semacam ini dengan sangat serius. Namun, penting bagi pakar dengan latar belakang CBRN (kimia, biologi, radiologi, dan nuklir) untuk menilai akurasi serta potensi replikasi dari jawaban dan instruksi yang dihasilkan oleh sistem kecerdasan buatan.” Pernyataan ini menegaskan posisi industri bahwa risiko tidak dapat dinilai hanya dari hasil respons AI semata, melainkan memerlukan validasi dari pakar.
Namun, CivAI menolak anggapan bahwa demonstrasi mereka bersifat spekulatif. Siddharth Hiregowdara, salah satu pendiri CivAI, menyatakan bahwa keluaran AI tersebut telah diuji oleh pakar biologi dan virologi independen. “Langkah-langkahnya secara umum benar. Bahkan sampai ke urutan DNA tertentu yang bisa dipesan secara daring, lengkap dengan nomor katalog peralatan laboratorium,” ujarnya. “AI juga memberi tips praktis. Anggapan bahwa AI tidak memahami praktik dunia nyata di laboratorium itu keliru.”
Meningkatnya Tekanan Regulasi dan Dilema Industri
Isu ini memperkuat kekhawatiran yang telah lama disuarakan oleh para ahli keamanan AI global. Sebelumnya, CEO Anthropic, Dario Amodei, telah memperingatkan Kongres AS bahwa tanpa pengawasan ketat, AI berpotensi membantu individu tanpa keahlian untuk merancang senjata biologis. Peringatan tersebut kini memperoleh konteks yang lebih kuat setelah para legislator menyaksikan langsung kemampuan model AI dalam demo CivAI.
Akibatnya, tekanan untuk memperketat regulasi AI semakin meningkat. Di negara bagian Washington, gugus tugas AI telah merekomendasikan kerangka kebijakan yang menyeimbangkan inovasi dengan keselamatan publik, termasuk transparansi sistem berisiko tinggi dan penerapan prinsip etika AI. Demonstrasi CivAI semakin memperkuat argumen bahwa pendekatan sukarela dari industri mungkin tidak lagi memadai.
Di sisi lain, kepemimpinan industri AI juga dihadapkan pada dilema antara aksesibilitas global dan keberlanjutan bisnis. Nick Turley, Kepala ChatGPT di OpenAI, menyatakan bahwa perusahaan merasa memiliki tanggung jawab moral untuk memperluas akses global terhadap AI. “Kami ingin menawarkan kemampuan model tercerdas kepada pengguna di seluruh dunia. Karena itu, kami perlu menjajaki semua model bisnis yang memungkinkan akses seluas mungkin,” katanya kepada Time.
Peringatan Strategis untuk Masa Depan
Pada akhirnya, demonstrasi CivAI berfungsi sebagai peringatan strategis, bukan sekadar eksperimen teknis. Bagi Washington dan dunia, peristiwa ini menegaskan bahwa risiko AI bukan lagi ancaman yang diperdebatkan secara teoretis, melainkan tantangan keamanan global yang sudah hadir saat ini. Hal ini menuntut respons kebijakan yang lebih serius, terkoordinasi, dan lintas negara untuk mengelola potensi bahaya sekaligus memanfaatkan kemajuan teknologi secara bertanggung jawab.























