OpenAI membentuk komite keamanan untuk mengevaluasi operasi global dalam 90 hari

Dewan OpenAI telah membentuk komite keamanan untuk mengevaluasi operasinya saat perusahaan mulai melatih model kecerdasan buatan berikutnya.

Perusahaan mengumumkan hal ini dalam sebuah pernyataan pada hari Selasa, mencatat bahwa tugas pertama komite adalah mengevaluasi dan mengembangkan lebih lanjut proses dan perlindungannya selama 90 hari ke depan.

Hal ini terjadi di tengah kekhawatiran keamanan global seiring dengan semakin canggihnya model AI dalam membuat teks dan gambar.

Komite ini akan dipimpin oleh anggota dewan OpenAI Bret Taylor (Presiden), Adam D’Angelo, Nicole Seligman dan Sam Altman (CEO). Menurut OpenAI, komite tersebut akan bertanggung jawab untuk membuat rekomendasi kepada seluruh dewan mengenai keputusan penting keselamatan dan keamanan untuk proyek dan operasi perusahaan.

Pelatihan model baru

OpenAI baru-baru ini membuat kemajuan pesat dalam AI dan hal ini meningkatkan kekhawatiran tentang cara OpenAI mengelola potensi bahaya teknologi tersebut.

Perusahaan mengatakan telah mulai melatih model baru, yang mungkin lebih kuat daripada ChatGPT-4 dan ChatGPT-4o saat ini, sehingga komite perlu meninjau operasinya dan membuat rekomendasi.

“OpenAI baru-baru ini mulai melatih model frontier berikutnya dan kami mengantisipasi bahwa sistem yang dihasilkan akan membawa kami ke tingkat kemampuan berikutnya dalam perjalanan menuju AGI.

“Meskipun kami bangga membangun dan meluncurkan model-model yang terdepan di industri dalam hal kemampuan dan keamanan, kami menyambut baik perdebatan sengit pada saat yang penting ini,” kata perusahaan itu.

Dia menambahkan bahwa setelah 90 hari, komite keselamatan dan keamanan akan membagikan rekomendasinya kepada seluruh Dewan.

“Setelah peninjauan penuh Dewan, OpenAI akan secara terbuka membagikan pembaruan mengenai rekomendasi yang diadopsi dengan cara yang konsisten dengan keselamatan dan keamanan,” dia berkata.

Menurut OpenAI, anggota komite lainnya termasuk pakar teknis dan kebijakan, Aleksander Madry (Kepala Kesiapan), Lilian Weng (Kepala Sistem Keamanan), John Schulman (Kepala Ilmu Penyelarasan), Matt Knight (Kepala Keamanan), dan Jakub Pachocki (kepala ilmuwan).

Perusahaan mengatakan akan mempekerjakan dan berkonsultasi dengan pakar teknis dan keamanan lainnya untuk mendukung pekerjaan ini, termasuk mantan karyawan keamanan siber Rob Joyce, yang memberi nasihat kepada OpenAI di bidang keamanan, dan John Carlin.

Latar Belakang

Pembentukan komite keamanan baru menyusul pembubaran tim baru-baru ini yang berfokus pada memastikan keamanan kemungkinan sistem kecerdasan buatan yang sangat berkemampuan tinggi di masa depan. Tim tersebut dibubarkan setelah kepergian dua pemimpin grup, termasuk salah satu pendiri OpenAI dan kepala ilmuwan Ilya Sutskever.

Tim ini dibentuk kurang dari setahun yang lalu di bawah kepemimpinan Sutskever dan Jan Leike, veteran OpenAI lainnya. Para ilmuwan memimpin tim OpenAI Super Alignment, yang berfokus pada ancaman jangka panjang dari manusia super AI.

Leike, yang mengundurkan diri, kemudian menulis bahwa divisinya “berjuang” untuk sumber daya komputasi dalam OpenAI.

Sumber