OpenAI dan Langkah Pencegahan Risiko AI Kritis

Open AI

OpenAI, perusahaan di balik chatbot viral ChatGPT, baru-baru ini mengungkapkan sebuah dokumen berjudul “Preparedness Framework” sepanjang 27 halaman. Dokumen ini merinci upaya OpenAI dalam melacak, mengevaluasi, dan melindungi dari “risiko bencana” yang mungkin timbul dari model AI canggih. Risiko ini bervariasi, mulai dari penggunaan model AI untuk menyebabkan gangguan keamanan siber massal hingga membantu dalam pembuatan senjata biologi, kimia, atau nuklir.

Sebagai bagian dari pemeriksaan dan keseimbangan dalam kerangka kerja baru ini, OpenAI menyatakan bahwa kepemimpinan perusahaan memiliki kekuatan pengambilan keputusan untuk merilis model AI baru, tetapi dewan direksi memiliki kata akhir dan “hak untuk membalikkan keputusan” yang dibuat oleh tim kepemimpinan OpenAI. Namun, sebelum mencapai titik di mana dewan memveto penyebaran model AI yang berpotensi berisiko, perusahaan menyatakan bahwa banyak pemeriksaan keamanan harus dilalui terlebih dahulu.

Sebuah tim “kesiapan” yang didedikasikan akan memimpin upaya multi-sudut untuk memantau dan mengurangi risiko potensial dari model AI lanjutan di OpenAI. Profesor Massachusetts Institute of Technology, Aleksander Madry, yang saat ini cuti dari MIT, akan memimpin tim kesiapan startup ini. Dia akan mengawasi sekelompok peneliti yang bertugas mengevaluasi dan memantau risiko potensial secara dekat serta mensintesis risiko-risiko ini ke dalam kartu skor. Kartu skor ini, sebagian, mengkategorikan risiko tertentu sebagai “rendah”, “sedang”, “tinggi”, atau “kritikal”.


Kerangka kerja kesiapan menyatakan bahwa “hanya model dengan skor pasca-mitigasi ‘sedang’ atau di bawahnya yang dapat dikerahkan,” dan hanya model dengan “skor pasca-mitigasi ‘tinggi’ atau di bawahnya yang dapat dikembangkan lebih lanjut.” Dokumen ini secara khusus berada dalam “beta”, kata perusahaan, dan diharapkan akan diperbarui secara teratur berdasarkan umpan balik.

Kerangka kerja ini menyoroti struktur tata kelola yang tidak biasa di startup kecerdasan buatan yang kuat ini, yang melihat dewan direksinya dirombak menyusul ledakan korporat bulan lalu yang mengakibatkan CEO Sam Altman dipecat dan kemudian dipulihkan dalam waktu hanya lima hari. Drama korporat yang banyak diperhatikan ini menimbulkan pertanyaan baru pada saat itu tentang kekuasaan Altman atas perusahaan yang ia dirikan bersama, dan batasan yang dirasakan dewan memiliki atas dia dan tim kepemimpinannya. Dewan saat ini, yang dikatakan OpenAI adalah “awal” dan sedang dalam proses dibangun, terdiri dari tiga pria kaya, kulit putih yang memiliki tugas berat untuk memastikan teknologi paling canggih OpenAI mencapai misinya untuk memberi manfaat bagi seluruh umat manusia.

Kurangnya keberagaman dalam dewan sementara telah mendapat kritik luas. Beberapa kritikus juga menyatakan keprihatinan bahwa mengandalkan perusahaan untuk mengatur diri sendiri tidak cukup, dan pembuat undang-undang perlu melakukan lebih banyak untuk memastikan pengembangan dan penyebaran alat AI yang aman. Pemeriksaan keamanan proaktif terbaru yang diuraikan oleh OpenAI tiba saat sektor teknologi dan sekitarnya telah menghabiskan tahun lalu mendebatkan potensi kiamat AI. Ratusan ilmuwan AI dan peneliti terkemuka – termasuk Altman dari OpenAI dan kepala eksekutif Google Deepmind Demis Hassabis – menandatangani surat terbuka satu kalimat awal tahun ini yang mengatakan bahwa mitigasi “risiko kepunahan dari AI” harus menjadi prioritas global bersama risiko lainnya “seperti pandemi dan perang nuklir.” Pernyataan ini menimbulkan kekhawatiran luas dari publik, meskipun beberapa pengamat industri kemudian menuduh perusahaan menggunakan skenario kiamat yang jauh untuk mengalihkan perhatian dari bahaya saat ini yang terkait dengan alat AI.