Kecerdasan buatan (AI) yang sedang tren saat ini bagai pisau bermata dua. Almarhum fisikawan Stephen Hawking pernah mengatakan, dampak AI dapat menjadi bencana besar dan buruk bagi peradaban manusia, kecuali perkembangannya yang cepat dikontrol secara ketat dan etis.

“Kecuali jika kita belajar bagaimana mempersiapkan, dan menghindari, potensi risikonya,” jelasnya seperti dikutip dari Built In yang diakses Selasa (27 Oktober 2020).

Bos Tesla dan SpaceX, Elon Musk, pun mengaku takut dengan perkembangan AI. “Camkan kata-kata saya,” ujar dia  suatu kali di konferensi teknologi South by Southwest (SXSW) di Austin, Texas.

“AI jauh lebih berbahaya daripada nuklir,” ujar Musk.

“Saya benar-benar cukup dekat… dengan kecerdasan buatan, dan itu membuat saya takut. AI ini mampu melakukan lebih dari yang diketahui hampir semua orang, dan tingkat peningkatannya eksponensial.”

Komunitas teknologi pun telah lama memperdebatkan ancaman yang ditimbulkan oleh AI. Berikut ini enam risiko berbahaya dari AI:

Otomatisasi pekerjaan umumnya dipandang sebagai perhatian yang paling mendesak. Tidak lagi sekadar apakah AI akan menggantikan manusia dalam melakukan pekerjaan. Di banyak industri disrupsi itu sedang berlangsung.

Menurut studi Brookings Institution 2019, ada 36 juta orang bekerja dalam pekerjaan dengan “eksposur tinggi” terhadap otomatisasi, yang berarti bahwa tidak lama kemudian setidaknya 70 persen tugas mereka — mulai dari penjualan ritel dan analisis pasar hingga perhotelan dan tenaga kerja gudang — akan digantikan dengan AI.

Baca Juga:  Alibaba Janji Dorong Daya Saing Pekerja Indonesia Lewat Dua Cara

Lebih lanjut, studi itu menunjukkan bahwa pekerja dengan “kemeja dan dasi” (white collar) yang sebenarnya paling berisiko tergantikan oleh AI.

Saat robot AI, kata futurolog terkenal Martin Ford, menjadi lebih pintar dan lebih cekatan, maka tugas yang sama akan membutuhkan lebih sedikit manusia. Meskipun AI juga menciptakan lapangan kerja, jumlahnya tidak seberapa, karena banyak yang tidak dapat diakses oleh anggota angkatan kerja yang kurang berpendidikan.

Dalam makalah The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation (Februari 2018), 26 peneliti dari 14 institusi (akademisi, sipil, dan industri) menyebutkan sejumlah bahaya lain yang dapat menyebabkan bahaya serius —atau setidaknya, menabur kekacauan kecil —dalam waktu kurang dari lima tahun.

Responden makalah itu menyoroti penggunaan AI pada kegiatan yang dapat mengancam keamanan digital seperti penggunaan AI untuk meretas, keamanan fisik seperti peretas non negara mempersenjatai drone, serta keamanan politik seperti menghilangkan privasi, pembuatan profil yang tampak sangat nyata bukan asli, kampanye disinformasi otomatis dan tertarget.

AI juga berdampak pada privasi dan keamanan. Misalnya penggunaan teknologi pengenalan wajah. (Baca: Gara-gara Alat Facial Recognition Salah Identifikasi, Pemuda Ini Meringkuk Dipenjara)

Munculnya “Deepfakes”

Penggunaan deepfakes —audio dan video yang dirancang sedemikian rupa—untuk memanipulasi suara dan kemiripan. Deepfakes ini dibuat menggunakan pembelajaran mesin yang merupakan bagian dari AI.

Baca Juga:  Queensland dan NSW Uji Coba Kamera Pendeteksi Ponsel di Jalanan

Dengan begitu, membuat klip audio atau video seseorang dapat dilakukan untuk membuatnya tampak seolah-olah mengucapkan sesuatu, padahal ia tak mengucapkan hal itu. Hal ini dapat mengelabui masyarakat yang melihatnya karena itu sulit dideteksi kepalsuannya oleh mata telanjang.

Bentuk bias AI juga merugikan. Profesor ilmu komputer, Princeton Olga Russakovsky, kepada New York Times, mengatakan bahwa AI itu melampaui gender dan ras. Selain bias data dan algoritma, AI dikembangkan oleh manusia dan manusia secara inheren bias.

“Peneliti AI terutama adalah orang-orang yang berjenis kelamin laki-laki, yang berasal dari demografi ras tertentu, yang dibesarkan di wilayah sosial ekonomi tinggi, terutama orang-orang tanpa disabilitas,” kata Russakovsky.

Melebarnya ketimpangan sosial-ekonomi

Ketimpangan sosial ekonomi ini bisa hadir karena AI menyebabkan hilangnya pekerjaan. Seiring dengan pendidikan, pekerjaan telah lama menjadi pendorong mobilitas sosial.

Seperti dijelaskan pada ancaman pertama, di mana pekerjaan akan digantikan oleh AI. Itupun dilakukan oleh perusahaan karena akan menghemat dananya dan efisiensi waktu. Sektor swasta mengejar keuntungan di atas segalanya karena “itulah yang memang mereka lakukan.”

Senjata otonom dan perlombaan senjata ai potensial

Tidak semua orang setuju dengan Elon Musk bahwa AI lebih berbahaya daripada nuklir. Namun, bagaimana jika AI memutuskan untuk meluncurkan nuklir atau katakanlah senjata biologis tanpa campur tangan manusia? Atau, bagaimana jika musuh memanipulasi data untuk mengembalikan rudal yang dipandu AI ke tempat mereka datang? Keduanya adalah kemungkinan dan bencana.

Baca Juga:  Siap Diluncurkan!, Mobil Jaguar Land Rover Kembangkan Teknologi Anti Covid-19

Pada 2015, 30.000 peneliti AI juga robotika dan lainnya menandatangani surat terbuka tentang hal tersebut. Mereka menolak keras penggunaan AI dijadikan senjata biologis.

Mengurangi risiko AI

Elon Musk menyarankan agar regulasi perlu hadir serta pengawasannya untuk meminimalisasi risiko yang akan hadir dari AI.

“Itu perlu badan publik yang memiliki wawasan dan kemudian pengawasan untuk memastikan bahwa setiap orang mengembangkan AI dengan aman. Ini sangat penting,” kata Musk.

Hal senada disampaikan Ford, regulasi penerapan AI diperlukan disertai terkait dengan aplikasi yang selektif.

Peneliti AI, Fei-Fei Li dan John Etchemendy, dari Institut Kecerdasan Buatan yang Berpusat pada Manusia, Universitas Stanford, menyampaikan, harus melibatkan banyak orang untuk memastikan AI memenuhi potensi yang sangat besar dan memperkuat masyarakat alih-alih melemahkannya.

Pencipta AI juga harus berwawasan luas, dan memperhatikan orang-orang lintas etnis, jenis kelamin, budaya, dan sebagainya.

“Masa depan kita bergantung pada kemampuan ilmuwan sosial dan komputer untuk bekerja berdampingan dengan orang-orang dari berbagai latar belakang…,” tulis mereka.[]

Source link