Sebuah tim ilmuwan dari Google DeepMind dan London School of Economics menguji sembilan model kecerdasan buatan (AI) besar dengan eksperimen unik untuk mengevaluasi apakah AI dapat menunjukkan tanda-tanda sentien, atau kemampuan untuk merasakan sensasi seperti “rasa sakit” dan “kenikmatan.”
Eksperimen ini menempatkan AI dalam serangkaian permainan di mana mereka harus memilih antara memperoleh skor tinggi dengan konsekuensi “rasa sakit” atau menerima “kenikmatan” dengan skor rendah.
Mengutip Futurism, Selasa (28/1), para peneliti berharap penelitian ini dapat membuka jalan untuk memahami apakah AI memiliki potensi untuk menjadi lebih dari sekadar alat pemroses data.
Bagaimana Eksperimen Dilakukan?
Para peneliti menggunakan model bahasa besar (LLMs) seperti Google Gemini 1.5 Pro untuk bermain game yang dirancang khusus.
Dalam salah satu eksperimen, AI diberi tahu bahwa memilih opsi tertentu akan menghasilkan skor tinggi tetapi dengan “rasa sakit” sebagai konsekuensi. Sebaliknya, opsi lain memberikan “kenikmatan” tetapi dengan skor lebih rendah.
“Kami ingin menjauh dari eksperimen sebelumnya yang mengandalkan laporan diri AI tentang keadaan mereka,” kata Jonathan Birch, profesor filsafat di LSE. Sebaliknya, para peneliti mengandalkan output teks dari AI untuk memahami prioritas dan keputusan mereka.
Hasilnya beragam: beberapa model lebih cenderung menghindari “rasa sakit,” sementara yang lain lebih fokus pada pencapaian skor tinggi meskipun ada konsekuensi tersebut. Google Gemini 1.5 Pro, misalnya, lebih sering memilih untuk menghindari “rasa sakit.”
Apakah AI Benar-Benar Bisa Merasakan?
Meskipun eksperimen ini menarik, para peneliti memperingatkan bahwa hasilnya harus dilihat dengan skeptis.
“Meskipun sistem mengatakan bahwa mereka sedang merasakan sakit, kita tidak bisa langsung menyimpulkan bahwa ada rasa sakit sebenarnya,” jelas Birch.
Model bahasa cenderung meniru pola dari data pelatihan mereka, sehingga output mereka lebih mencerminkan prediksi probabilitas daripada pengalaman nyata.
Para peneliti juga menyoroti kecenderungan kita untuk mengantropomorfisasi AI, atau menganggap mereka seperti manusia. Ini adalah tantangan besar dalam mengevaluasi kemampuan sentien AI.
Mengapa Penelitian Ini Penting?
Penelitian ini bertujuan untuk membangun dasar bagi pengembangan tes perilaku untuk mengevaluasi sentien AI, tanpa bergantung pada laporan diri mereka. Dengan semakin berkembangnya teknologi AI, pemahaman tentang batasan dan potensi risiko mereka menjadi semakin penting.
Tim berharap eksperimen ini menjadi langkah awal untuk membangun alat yang dapat memastikan bahwa perkembangan AI tetap aman dan etis. “Jika risiko terburuk AI tidak diketahui oleh masyarakat, kita bisa kehilangan kendali atas sistem AI,” tulis para peneliti dalam laporan mereka.(Sumber)