1 min read

OpenAI Baru saja Membentuk Tim Untuk Menjaga AI Superintelligent Tetap Terkendali

Tantangan terbesar yang datang dengan AI superintelligent adalah bahwa hal itu tidak dapat dikontrol dengan metode pengawasan manusia yang sama yang digunakan untuk mannequin generasi saat ini seperti GPT-4, yang mendukung produk seperti ChatGPT. Untuk sistem yang lebih pintar dari manusia, Superalignment mengusulkan penggunaan sistem AI untuk mengevaluasi sistem AI lainnya dan bertujuan untuk mengotomatisasi proses menemukan perilaku anomali. Tim akan menggunakan teknik permusuhan seperti menguji jalur pipa dengan sengaja melatihnya dengan mannequin yang tidak selaras.

OpenAI mendedikasikan 20% dari seluruh sumber daya komputasi untuk tujuan tim Superalignment selama empat tahun ke depan. Rencana OpenAI untuk “menyelaraskan sistem AI superintelligent dengan niat manusia” datang pada saat seruan untuk menghentikan pengembangan mannequin yang ada seperti GPT-4 telah diangkat dari pendukung industri seperti Elon Musk, Steve Wozniak, dan ilmuwan high di seluruh dunia mengutip ancaman diajukan kepada manusia.

Sementara itu, badan pengawas juga berebut untuk merumuskan, dan mengimplementasikan, pagar pembatas agar sistem AI tidak berakhir menjadi kekacauan yang tidak terkendali. Tetapi ketika berbicara tentang AI superintelligent, ada banyak ketidakpastian tentang kemampuan, potensi risiko, dan apakah itu layak. Penelitian kolaboratif yang menarik oleh para ahli di College of California San Diego, Max-Planck Institute for Human Growth, ORGIMDEA Networks Institute of Madrid, dan College of Chile menyimpulkan bahwa sistem superintelijen tidak mungkin dibendung dan hipotesis penahanan untuk sistem itu sendiri tidak dapat dihitung.