1 min read

Google, OpenAI, dan Lainnya Baru Saja Membuat Janji Keamanan AI Besar ke Gedung Putih

Fokusnya adalah pada keselamatan, transparansi, keamanan, dan kepercayaan. Perusahaan yang diundang untuk pengarahan Gedung Putih menyetujui pengujian inner maupun eksternal alat AI mereka oleh para ahli sebelum mereka memasuki area publik. Laboratorium AI juga telah berjanji bahwa mereka tidak akan menerima ancaman yang ditimbulkan oleh kecerdasan buatan, berkomitmen untuk membaginya dengan pakar industri, pakar akademik, dan masyarakat sipil.

Mengenai aspek keamanan, perusahaan telah berjanji bahwa mereka akan membuat penjaga keamanan inner dan hanya setelah pengujian yang ketat mereka akan merilis mannequin AI mereka. Untuk memastikan bahwa risiko keamanan siber diminimalkan, telah disepakati juga bahwa pendukung AI ini akan mengizinkan pakar independen untuk memeriksa produk mereka dan juga akan ada jalur terbuka untuk melaporkan kerentanan.

Bagian penting lainnya dari komitmen ini adalah bahwa laboratorium AI akan melaporkan “kemampuan, batasan, dan space sistem AI mereka yang sesuai dan tidak pantas digunakan.” Ini sangat penting, karena sistem AI generasi saat ini memiliki beberapa masalah terkenal dengan akurasi dan bias dalam berbagai bentuk.

Terakhir, pembuat alat AI juga setuju untuk mendedikasikan upaya dan sumber daya untuk pengembangan AI dengan cara yang berkontribusi pada kesejahteraan masyarakat, bukan merusaknya. Upaya akan dilakukan untuk menggunakan AI untuk memecahkan masalah seperti krisis iklim dan penelitian kanker.

Pakar AI dan pemangku kepentingan industri telah menandatangani ikrar menuju pengembangan AI yang bertanggung jawab, dan ini merupakan langkah maju etis lainnya untuk AI.