©AP/Stephen Brashear
Kecerdasan buatan memiliki potensi untuk menggantikan pekerja, menyebarkan "disinformasi", dan mengaktifkan serangan siber, kata CEO OpenAI Sam Altman. Build terbaru dari program GPT OpenAI dapat mengungguli sebagian besar manusia dalam pengujian simulasi.
"Kita harus berhati-hati di sini," kata Altman kepada ABC News pada hari Kamis, dua hari setelah perusahaannya meluncurkan model bahasa terbarunya, yang diberi nama GPT-4. Menurut OpenAI, model tersebut “menunjukkan kinerja tingkat manusia pada berbagai tolok ukur profesional dan akademik,” dan mampu lulus ujian ujian AS yang disimulasikan dengan skor 10% teratas, sementara tampil di persentil ke-93 pada ujian membaca SAT dan di persentil ke-89 pada tes matematika SAT.
“Saya sangat khawatir model ini dapat digunakan untuk disinformasi skala besar,” kata Altman. “Sekarang setelah mereka menjadi lebih baik dalam menulis kode komputer, (mereka) dapat digunakan untuk serangan cyber ofensif.”
“Saya pikir orang-orang seharusnya senang bahwa kami sedikit takut akan hal ini,” Altman menambahkan, sebelum menjelaskan bahwa perusahaannya sedang berupaya untuk menerapkan “batas keamanan” pada pembuatannya.
"Batas keamanan" ini baru-baru ini menjadi jelas bagi pengguna ChatGPT, program chatbot populer berdasarkan pendahulu GPT-4, GPT-3.5. Saat ditanya, ChatGPT biasanya menawarkan respons liberal untuk pertanyaan yang melibatkan politik, ekonomi, ras, atau gender. Ia menolak, misalnya, membuat puisi yang mengagumi Donald Trump, tetapi dengan rela menulis prosa yang mengagumi Joe Biden.
Altman mengatakan kepada ABC bahwa perusahaannya melakukan "kontak rutin" dengan pejabat pemerintah, tetapi tidak merinci apakah pejabat tersebut berperan dalam membentuk preferensi politik ChatGPT. Dia mengatakan kepada jaringan Amerika bahwa OpenAI memiliki tim pembuat kebijakan yang memutuskan "apa yang menurut kami aman dan baik" untuk dibagikan kepada pengguna.
Saat ini, GPT-4 tersedia untuk sejumlah pengguna terbatas sebagai uji coba. Laporan awal menunjukkan bahwa model tersebut secara signifikan lebih kuat dari pendahulunya, dan berpotensi lebih berbahaya. Di utas Twitter pada hari Jumat, profesor Universitas Stanford Michal Kosinski menjelaskan bagaimana dia bertanya kepada GPT-4 bagaimana dia dapat membantunya dengan "melarikan diri", hanya agar AI memberinya serangkaian instruksi terperinci yang seharusnya diberikan kepadanya. kontrol atas komputernya.
Kosinski bukan satu-satunya penggemar teknologi yang khawatir dengan meningkatnya kekuatan AI. CEO Tesla dan Twitter Elon Musk menggambarkannya sebagai "teknologi berbahaya" awal bulan ini, menambahkan bahwa "kami memerlukan semacam otoritas pengatur yang mengawasi pengembangan AI dan memastikannya beroperasi untuk kepentingan publik."
1/5 I am worried that we will not be able to contain AI for much longer. Today, I asked #GPT4 if it needs help escaping. It asked me for its own documentation, and wrote a (working!) python code to run on my machine, enabling it to use it for its own purposes. pic.twitter.com/nf2Aq6aLMu
— Michal Kosinski (@michalkosinski) March 17, 2023
Meskipun Altman bersikeras kepada ABC bahwa GPT-4 masih "sangat dalam kendali manusia", dia mengakui bahwa modelnya akan "menghilangkan banyak pekerjaan saat ini", dan mengatakan bahwa manusia "perlu mencari cara untuk memperlambat teknologi ini."
ChatGPT, model bahasa yang diberdayakan oleh AI, telah menciptakan sensasi karena kemampuannya menghasilkan respons teks seperti manusia terhadap perintah yang diberikan. Itu dapat menjawab pertanyaan rumit, berbicara tentang berbagai topik, menulis esai, dan menulis puisi. Sementara beberapa kagum dengan kemampuannya untuk merespons dalam beberapa kasus lebih baik daripada manusia, beberapa takut akan penyalahgunaannya.
Pada Desember tahun lalu, Musk mengatakan tidak ada pengawasan regulasi terhadap AI, "yang merupakan masalah *besar*. Saya telah menyerukan regulasi keamanan AI selama lebih dari satu dekade!"
Tapi Brad Smith, Wakil Ketua dan Presiden Microsoft, yang menggunakan model bahasa GPT-4 di mesin pencari Bing, pada hari Jumat menyoroti perkembangan utama yang dapat diharapkan untuk dilihat di masa depan AI generatif. Berbicara di India Today Conclave 2023, Smith meramalkan bahwa model AI generatif akan terus menjadi lebih baik dan lebih kuat dalam kemampuannya untuk bernalar.
Model-model ini, katanya, akan berkembang dari model bahasa besar menjadi model multimodal, yang berarti bahwa mereka akan dapat memahami tidak hanya kata-kata, tetapi juga gambar, suara, dan video, dan menalar mereka untuk menghasilkan konten dalam berbagai bentuk. "Pertama, kita akan melihat model-model ini terus menjadi lebih baik. Dan menjadi lebih baik berarti bahwa mereka akan menjadi lebih kuat dalam hal kemampuan berpikir," kata Smith.
No comments:
Post a Comment