Masih Khawatir, Bapak AI Dunia Tak Yakin Kecerdasan Buatan yang Baik Bisa Menang
JAKARTA, iNews.id - Profesor Universitas Toronto Geoffrey Hinton atau sering disebut Godfather of AI menjadi pengawas tidak resmi industri. Dia berhanti bekerja di Google agar lebih bebas mengkritik bidang yang dia bantu rintis.
Bapak AI melihat lonjakan AI generatif baru-baru ini seperti ChatGPT dan Bing Chat sebagai tanda percepatan pengembangan yang tidak terkendali dan berpotensi berbahaya. Sementara itu, Google tampaknya melepaskan pengekangan sebelumnya karena mengejar pesaing produk lain.
Pada konferensi Collision pekan ini di Toronto, Hinton memperluas keprihatinannya. Dia tidak yakin AI yang baik akan muncul sebagai pemenang atas variasi yang buruk.
Hinton yakin adopsi AI secara etis mungkin membutuhkan biaya yang mahal. Dia berpendapat AI hanya sebagus orang membuatnya, dan teknologi yang buruk itu masih bisa menang.
"Saya tidak yakin AI bagus yang mencoba menghentikan hal buruk bisa saya kendalikan. Mungkin sulit untuk menghentikan kompleks industri militer dari memproduksi robot perang," kata Hinton.
Meski dia percaya model bahasa besar (AI terlatih yang menghasilkan teks seperti manusia seperti ChatGPT OpenAI) dapat menyebabkan peningkatan besar dalam produktivitas, dia khawatir kelas penguasa mungkin hanya mengeksploitasi ini untuk memperkaya diri mereka sendiri, memperluas kesenjangan kekayaan besar yang sudah ada.
Menurut Hinton itu akan membuat yang kaya semakin kaya dan miskin semakin miskin. Hinton juga menegaskan kembali pandangannya yang banyak dipublikasikan AI dapat menimbulkan risiko eksistensial bagi umat manusia.
Jika kecerdasan buatan menjadi lebih pintar dari manusia, tidak ada jaminan manusia akan tetap memegang kendali. “Kami dalam masalah jika AI memutuskan mengambil kendali diperlukan untuk mencapai tujuannya," kata Hinton.
Baginya, ancaman tersebut bukan hanya fiksi ilmiah; Mereka harus ditanggapi dengan serius. Dia khawatir masyarakat hanya akan mengekang robot pembunuh setelah memiliki kesempatan untuk melihat "betapa buruknya" mereka.
Ada banyak masalah yang ada. Dia berpendapat bias dan diskriminasi tetap menjadi masalah, karena data pelatihan AI yang miring dapat menghasilkan hasil yang tidak adil.
Algoritma juga menciptakan ruang gema yang memperkuat informasi yang salah dan masalah kesehatan mental. Hinton juga khawatir tentang AI yang menyebarkan informasi yang salah di luar kamar tersebut. Dia tidak yakin apakah mungkin untuk menangkap setiap klaim palsu, meskipun penting untuk menandai semua yang palsu sebagai palsu.
Editor: Dini Listiyani