14 Risiko dan Bahaya Kecerdasan Buatan (AI)

AI telah dipuji sebagai sesuatu yang revolusioner dan mengubah dunia, tetapi bukan tanpa kekurangan. Seiring berkembangnya AI menjadi lebih canggih dan meluas, suara-suara yang memperingatkan terhadap potensi bahaya kecerdasan buatan pun semakin lantang.
"Hal-hal ini bisa menjadi lebih cerdas daripada kita dan dapat memutuskan untuk mengambil alih, dan kita perlu khawatir sekarang tentang bagaimana kita mencegah hal itu terjadi," kata Geoffrey Hinton , yang dikenal sebagai "Godfather of AI" untuk karya dasarnya tentang pembelajaran mesin dan algoritma jaringan saraf . Pada tahun 2023, Hinton meninggalkan jabatannya di Google sehingga ia dapat " berbicara tentang bahaya AI ," mencatat sebagian dari dirinya bahkan menyesali pekerjaan seumur hidupnya .
Ilmuwan komputer ternama itu tidak sendirian dalam keprihatinannya.
Pendiri Tesla dan SpaceX, Elon Musk, bersama dengan lebih dari 1.000 pemimpin teknologi lainnya, mendesak dalam surat terbuka tahun 2023 untuk menghentikan sementara eksperimen AI berskala besar, dengan alasan bahwa teknologi tersebut dapat “menimbulkan risiko besar bagi masyarakat dan kemanusiaan.”
Baik itu meningkatnya otomatisasi pekerjaan tertentu, algoritma yang bias gender dan rasial , atau senjata otonom yang beroperasi tanpa pengawasan manusia (hanya untuk menyebutkan beberapa), kegelisahan merajalela di sejumlah bidang. Dan kita masih dalam tahap awal tentang apa yang sebenarnya mampu dilakukan AI.
14 Bahaya Kecerdasan Buatan
Pertanyaan tentang siapa yang mengembangkan AI dan untuk tujuan apa membuat pemahaman tentang potensi kelemahannya menjadi semakin penting. Di bawah ini, kita akan melihat lebih dekat potensi bahaya kecerdasan buatan dan mengeksplorasi cara mengelola risikonya.
1. Kurangnya Transparansi dan Penjelasan AI
Model AI dan pembelajaran mendalam bisa jadi sulit dipahami, bahkan bagi mereka yang bekerja langsung dengan teknologi tersebut. Hal ini menyebabkan kurangnya transparansi tentang bagaimana dan mengapa AI sampai pada kesimpulannya, sehingga menciptakan kurangnya penjelasan tentang data apa yang digunakan algoritme AI, atau mengapa algoritme tersebut dapat membuat keputusan yang bias atau tidak aman. Kekhawatiran ini telah memunculkan penggunaan AI yang dapat dijelaskan , tetapi masih ada jalan panjang sebelum sistem AI yang transparan menjadi praktik umum.
Lebih buruk lagi, perusahaan AI terus bungkam tentang produk mereka. Mantan karyawan OpenAI dan Google DeepMind menuduh kedua perusahaan itu menyembunyikan potensi bahaya dari perangkat AI mereka. Kerahasiaan ini membuat masyarakat umum tidak menyadari kemungkinan ancaman dan mempersulit pembuat undang-undang untuk mengambil tindakan proaktif guna memastikan AI dikembangkan secara bertanggung jawab.
2. Hilangnya Pekerjaan Akibat Otomatisasi AI
Otomatisasi pekerjaan yang didukung AI menjadi perhatian mendesak karena teknologi ini diadopsi dalam industri seperti pemasaran , manufaktur , dan perawatan kesehatan . Pada tahun 2030, tugas-tugas yang mencakup hingga 30 persen dari jam kerja yang saat ini dilakukan dalam ekonomi AS dapat diotomatisasi — dengan karyawan kulit hitam dan Hispanik menjadi sangat rentan terhadap perubahan tersebut — menurut McKinsey . Goldman Sachs bahkan menyatakan 300 juta pekerjaan penuh waktu dapat hilang karena otomatisasi AI.
"Alasan mengapa tingkat pengangguran kita rendah, yang sebenarnya tidak mencakup orang-orang yang tidak mencari pekerjaan, sebagian besar adalah karena pekerjaan di sektor jasa dengan upah rendah telah diciptakan dengan cukup kuat oleh ekonomi ini," kata futuris Martin Ford kepada Built In. Namun, dengan meningkatnya AI, "Saya rasa hal itu tidak akan berlanjut."
Seiring robot AI menjadi lebih pintar dan cekatan, tugas yang sama akan membutuhkan lebih sedikit manusia. Dan meskipun AI diperkirakan akan menciptakan 97 juta pekerjaan baru pada tahun 2025 , banyak karyawan tidak akan memiliki keterampilan yang dibutuhkan untuk peran teknis ini dan bisa tertinggal jika perusahaan tidak meningkatkan keterampilan tenaga kerja mereka .
"Jika Anda membalik burger di McDonald's dan semakin banyak otomatisasi yang diterapkan, apakah salah satu pekerjaan baru ini cocok untuk Anda?" kata Ford. "Atau mungkin pekerjaan baru tersebut membutuhkan banyak pendidikan atau pelatihan atau bahkan bakat intrinsik — keterampilan interpersonal atau kreativitas yang sangat kuat — yang mungkin tidak Anda miliki? Karena hal-hal tersebut adalah hal-hal yang, setidaknya sejauh ini, tidak dapat dilakukan dengan baik oleh komputer."
Seperti yang telah ditunjukkan oleh ahli strategi teknologi Chris Messina, bidang-bidang seperti hukum dan akuntansi juga siap untuk diambil alih oleh AI. Bahkan, kata Messina, beberapa di antaranya mungkin akan hancur. AI sudah memberikan dampak yang signifikan pada bidang kedokteran. Hukum dan akuntansi akan menjadi yang berikutnya, kata Messina, yang pertama siap untuk "perombakan besar-besaran."
“Banyak pengacara yang membaca banyak informasi — ratusan atau ribuan halaman data dan dokumen. Sangat mudah untuk melewatkan banyak hal,” kata Messina. “Jadi AI yang memiliki kemampuan untuk menyisir dan secara komprehensif memberikan kontrak terbaik untuk hasil yang ingin Anda capai mungkin akan menggantikan banyak pengacara perusahaan.”
3. Manipulasi Sosial Melalui Algoritma AI
Manipulasi sosial juga menjadi bahaya kecerdasan buatan. Ketakutan ini telah menjadi kenyataan karena politisi mengandalkan platform untuk mempromosikan sudut pandang mereka, salah satu contohnya adalah Ferdinand Marcos, Jr., yang menggunakan pasukan troll TikTok untuk menarik suara warga Filipina yang lebih muda selama pemilihan umum Filipina tahun 2022.
TikTok, yang merupakan salah satu contoh platform media sosial yang mengandalkan algoritma AI , mengisi umpan pengguna dengan konten yang terkait dengan media sebelumnya yang pernah mereka lihat di platform tersebut. Kritik terhadap aplikasi tersebut menargetkan proses ini dan kegagalan algoritma untuk menyaring konten yang berbahaya dan tidak akurat, sehingga menimbulkan kekhawatiran atas kemampuan TikTok untuk melindungi penggunanya dari informasi yang menyesatkan.
Media dan berita daring menjadi semakin suram karena adanya gambar dan video yang dihasilkan AI, pengubah suara AI, serta deepfake yang menyusup ke ranah politik dan sosial. Teknologi ini memudahkan pembuatan foto, video, klip audio yang realistis, atau mengganti gambar satu tokoh dengan tokoh lain dalam gambar atau video yang sudah ada. Akibatnya, pelaku kejahatan memiliki cara lain untuk menyebarkan misinformasi dan propaganda perang , sehingga menciptakan skenario mimpi buruk di mana hampir mustahil untuk membedakan antara berita yang kredibel dan yang salah.
"Tidak seorang pun tahu apa yang nyata dan apa yang tidak," kata Ford. "Anda benar-benar tidak dapat mempercayai mata dan telinga Anda sendiri; Anda tidak dapat mengandalkan apa yang, secara historis, telah kami anggap sebagai bukti terbaik ... Itu akan menjadi masalah besar."
4. Pengawasan Sosial Dengan Teknologi AI
Selain ancaman yang lebih nyata, Ford berfokus pada cara AI akan berdampak buruk pada privasi dan keamanan. Contoh utamanya adalah penggunaan teknologi pengenalan wajah di kantor, sekolah, dan tempat lainnya oleh Tiongkok . Selain melacak pergerakan seseorang, pemerintah Tiongkok mungkin dapat mengumpulkan cukup data untuk memantau aktivitas, hubungan, dan pandangan politik seseorang.
Contoh lain adalah departemen kepolisian AS yang menggunakan algoritma kepolisian prediktif untuk mengantisipasi di mana kejahatan akan terjadi. Masalahnya adalah algoritma ini dipengaruhi oleh tingkat penangkapan, yang secara tidak proporsional berdampak pada komunitas kulit hitam . Departemen kepolisian kemudian menggandakan tugasnya pada komunitas ini, yang menyebabkan pengawasan berlebihan dan pertanyaan tentang apakah negara yang mengklaim demokrasi dapat menahan diri untuk tidak menjadikan AI sebagai senjata otoriter.
“Rezim otoriter menggunakan atau akan menggunakannya,” kata Ford. “Pertanyaannya adalah, 'Seberapa besar pengaruhnya terhadap negara-negara Barat, demokrasi, dan batasan apa yang kita terapkan padanya?'”
5. Kurangnya Privasi Data Menggunakan Alat AI
Survei AvePoint tahun 2024 menemukan bahwa kekhawatiran utama di antara perusahaan adalah privasi dan keamanan data . Dan bisnis mungkin punya alasan kuat untuk ragu, mengingat banyaknya data yang terkonsentrasi pada perangkat AI dan kurangnya regulasi terkait informasi ini.
Sistem AI sering kali mengumpulkan data pribadi untuk menyesuaikan pengalaman pengguna atau membantu melatih model AI yang Anda gunakan (terutama jika alat AI tersebut gratis). Data bahkan mungkin tidak dianggap aman dari pengguna lain saat diberikan ke sistem AI, karena salah satu insiden bug yang terjadi dengan ChatGPT pada tahun 2023 “memungkinkan beberapa pengguna melihat judul dari riwayat obrolan pengguna aktif lainnya.” Meskipun ada undang-undang yang berlaku untuk melindungi informasi pribadi dalam beberapa kasus di Amerika Serikat, tidak ada undang-undang federal yang secara eksplisit melindungi warga negara dari bahaya privasi data yang disebabkan oleh AI.
6. Bias Akibat AI
Berbagai bentuk bias AI juga merugikan. Berbicara kepada New York Times , profesor ilmu komputer Princeton Olga Russakovsky mengatakan bias AI jauh melampaui gender dan ras. Selain data dan bias algoritmik (yang terakhir dapat "memperkuat" bias sebelumnya), AI dikembangkan oleh manusia — dan manusia pada dasarnya bias .
“Peneliti AI sebagian besar adalah laki-laki, yang berasal dari demografi ras tertentu, yang tumbuh di daerah dengan sosial ekonomi tinggi, terutama orang-orang tanpa disabilitas,” kata Russakovsky. “Kami adalah populasi yang cukup homogen, jadi merupakan tantangan untuk berpikir secara luas tentang isu-isu dunia.”
Pandangan sempit individu telah memuncak dalam industri AI yang mengabaikan berbagai perspektif. Menurut UNESCO , hanya 100 dari 7.000 bahasa alami di dunia yang telah digunakan untuk melatih chatbot terbaik . Hal yang tidak membantu adalah bahwa 90 persen materi pendidikan tinggi daring telah diproduksi oleh negara-negara Uni Eropa dan Amerika Utara, yang selanjutnya membatasi data pelatihan AI ke sebagian besar sumber dari Barat.
Pengalaman terbatas para kreator AI dapat menjelaskan mengapa AI pengenalan suara sering gagal memahami dialek dan aksen tertentu, atau mengapa perusahaan gagal mempertimbangkan konsekuensi dari chatbot yang meniru tokoh sejarah . Jika bisnis dan legislator tidak lebih berhati-hati untuk menghindari terciptanya prasangka yang kuat, bias AI dapat menyebar ke luar konteks perusahaan dan memperburuk masalah sosial seperti diskriminasi perumahan .
7. Ketimpangan Sosial Ekonomi Akibat AI
Jika perusahaan menolak mengakui bias bawaan yang tertanam dalam algoritma AI, mereka dapat mengorbankan inisiatif DEI mereka melalui perekrutan yang didukung AI . Gagasan bahwa AI dapat mengukur ciri-ciri kandidat melalui analisis wajah dan suara masih tercemar oleh bias rasial, yang menghasilkan praktik perekrutan diskriminatif yang sama yang diklaim ingin dihilangkan oleh perusahaan.
Ketimpangan sosial ekonomi yang semakin lebar yang dipicu oleh hilangnya pekerjaan akibat AI merupakan penyebab kekhawatiran lainnya, yang mengungkap bias kelas dalam penerapan AI. Pekerja yang melakukan tugas yang lebih manual dan berulang telah mengalami penurunan upah hingga 70 persen karena otomatisasi, dengan pekerja kantor dan pekerja kantoran sebagian besar tidak tersentuh pada tahap awal AI. Namun, peningkatan penggunaan AI generatif sudah memengaruhi pekerjaan kantor , sehingga menyebabkan berbagai macam peran yang mungkin lebih rentan terhadap hilangnya upah atau pekerjaan dibandingkan peran lainnya.
8. Melemahnya Etika dan Niat Baik Akibat AI
Bersama dengan para teknolog, jurnalis, dan tokoh politik, bahkan para pemimpin agama membunyikan peringatan tentang potensi jebakan AI. Dalam pertemuan Vatikan tahun 2023 dan dalam pesannya untuk Hari Perdamaian Dunia 2024 , Paus Fransiskus menyerukan kepada negara-negara untuk membuat dan mengadopsi perjanjian internasional yang mengikat yang mengatur pengembangan dan penggunaan AI.
Paus Fransiskus memperingatkan tentang kemungkinan penyalahgunaan AI, dan “menciptakan pernyataan yang sekilas tampak masuk akal tetapi tidak berdasar atau menunjukkan bias.” Ia menekankan bagaimana hal ini dapat meningkatkan kampanye disinformasi, ketidakpercayaan terhadap media komunikasi, campur tangan dalam pemilu, dan lainnya — yang pada akhirnya meningkatkan risiko “memicu konflik dan menghalangi perdamaian.”
Meningkatnya penggunaan alat AI generatif membuat kekhawatiran ini semakin berbobot. Banyak pengguna telah menerapkan teknologi ini untuk menghindari tugas menulis, yang mengancam integritas dan kreativitas akademis . Ditambah lagi, AI yang bias dapat digunakan untuk menentukan apakah seseorang cocok untuk pekerjaan, hipotek, bantuan sosial, atau suaka politik, yang dapat menimbulkan ketidakadilan dan diskriminasi, kata Paus Fransiskus.
9. Senjata Otonom Bertenaga AI
Seperti yang sering terjadi, kemajuan teknologi telah dimanfaatkan untuk peperangan . Terkait AI, beberapa pihak ingin melakukan sesuatu sebelum terlambat: Dalam surat terbuka tahun 2016 , lebih dari 30.000 orang, termasuk peneliti AI dan robotika , menolak investasi dalam senjata otonom bertenaga AI.
“Pertanyaan utama bagi umat manusia saat ini adalah apakah akan memulai perlombaan senjata AI global atau mencegahnya,” tulis mereka. “Jika ada kekuatan militer besar yang terus mengembangkan senjata AI, perlombaan senjata global hampir tidak dapat dihindari, dan titik akhir dari lintasan teknologi ini sudah jelas: senjata otonom akan menjadi Kalashnikov masa depan.”
Prediksi ini telah membuahkan hasil dalam bentuk Sistem Senjata Otonom Mematikan , yang menemukan dan menghancurkan target sendiri sambil mematuhi sedikit peraturan. Karena maraknya senjata ampuh dan kompleks, beberapa negara paling kuat di dunia telah menyerah pada kecemasan dan berkontribusi pada perang dingin teknologi .
Banyak dari senjata baru ini menimbulkan risiko besar bagi warga sipil di darat, tetapi bahayanya menjadi lebih besar ketika senjata otonom jatuh ke tangan yang salah. Peretas telah menguasai berbagai jenis serangan siber , jadi tidak sulit untuk membayangkan aktor jahat menyusup ke senjata otonom dan memicu malapetaka.
Jika persaingan politik dan kecenderungan untuk berperang tidak dibendung, kecerdasan buatan dapat berakhir dengan penerapan niat yang buruk. Sebagian orang khawatir bahwa, tidak peduli berapa banyak tokoh kuat yang menunjukkan bahaya kecerdasan buatan, kita akan terus melampaui batas jika ada uang yang bisa dihasilkan.
“Mentalitasnya adalah, 'Jika kita bisa melakukannya, kita harus mencobanya; mari kita lihat apa yang terjadi,” kata Messina. “'Dan jika kita bisa menghasilkan uang darinya, kita akan melakukannya dalam jumlah besar.' Namun, itu tidak hanya terjadi pada teknologi. Itu telah terjadi sejak lama.'”
10. Krisis Keuangan yang Disebabkan oleh Algoritma AI
Industri keuangan telah menjadi lebih reseptif terhadap keterlibatan teknologi AI dalam proses keuangan dan perdagangan sehari-hari. Akibatnya, perdagangan algoritmik dapat menjadi penyebab krisis keuangan besar berikutnya di pasar.
Meskipun algoritme AI tidak dipengaruhi oleh penilaian atau emosi manusia, algoritme tersebut juga tidak memperhitungkan konteks , keterkaitan pasar, dan faktor-faktor seperti kepercayaan dan ketakutan manusia. Algoritme ini kemudian melakukan ribuan perdagangan dengan kecepatan tinggi dengan tujuan menjual beberapa detik kemudian untuk mendapatkan keuntungan kecil. Menjual ribuan perdagangan dapat membuat investor takut untuk melakukan hal yang sama, yang menyebabkan kejatuhan tiba-tiba dan volatilitas pasar yang ekstrem.
Peristiwa seperti Flash Crash 2010 dan Flash Crash Knight Capital menjadi pengingat akan apa yang bisa terjadi jika algoritma yang gemar berdagang menjadi tidak terkendali, terlepas dari apakah perdagangan cepat dan besar-besaran itu disengaja atau tidak.
Ini bukan berarti AI tidak menawarkan apa pun bagi dunia keuangan. Faktanya, algoritme AI dapat membantu investor membuat keputusan yang lebih cerdas dan lebih tepat di pasar. Namun, organisasi keuangan perlu memastikan bahwa mereka memahami algoritme AI mereka dan bagaimana algoritme tersebut membuat keputusan. Perusahaan harus mempertimbangkan apakah AI meningkatkan atau menurunkan kepercayaan diri mereka sebelum memperkenalkan teknologi tersebut untuk menghindari timbulnya ketakutan di kalangan investor dan menciptakan kekacauan keuangan.
11. Hilangnya Pengaruh Manusia
Ketergantungan yang berlebihan pada teknologi AI dapat mengakibatkan hilangnya pengaruh manusia — dan kurangnya fungsi manusia — di beberapa bagian masyarakat. Penggunaan AI dalam perawatan kesehatan dapat mengakibatkan berkurangnya empati dan penalaran manusia , misalnya. Dan menerapkan AI generatif untuk usaha kreatif dapat mengurangi kreativitas dan ekspresi emosional manusia . Berinteraksi dengan sistem AI terlalu banyak bahkan dapat menyebabkan berkurangnya komunikasi dan keterampilan sosial dengan teman sebaya. Jadi, meskipun AI dapat sangat membantu untuk mengotomatiskan tugas-tugas harian, beberapa orang mempertanyakan apakah itu dapat menahan kecerdasan, kemampuan, dan kebutuhan manusia secara keseluruhan untuk berkomunitas.
12. AI yang sadar diri dan tak terkendali
Ada pula kekhawatiran bahwa AI akan berkembang dalam kecerdasan begitu cepat sehingga akan menjadi makhluk berakal budi , dan bertindak di luar kendali manusia — mungkin dengan cara yang jahat. Laporan yang diduga tentang makhluk berakal budi ini telah terjadi, dengan satu laporan populer berasal dari mantan teknisi Google yang menyatakan bahwa chatbot AI LaMDA berakal budi dan berbicara kepadanya seperti halnya manusia. Karena tonggak besar AI berikutnya melibatkan pembuatan sistem dengan kecerdasan umum buatan , dan akhirnya kecerdasan super buatan , seruan untuk menghentikan sepenuhnya perkembangan ini terus meningkat.
13. Meningkatnya Aktivitas Kriminal
Seiring dengan semakin mudahnya akses terhadap teknologi AI, jumlah orang yang menggunakannya untuk aktivitas kriminal pun meningkat. Predator daring kini dapat membuat gambar anak-anak , sehingga menyulitkan penegak hukum untuk menentukan kasus pelecehan anak yang sebenarnya. Bahkan dalam kasus di mana anak-anak tidak mengalami kekerasan fisik, penggunaan wajah anak-anak dalam gambar yang dibuat AI menghadirkan tantangan baru untuk melindungi privasi daring dan keamanan digital anak-anak .
Pengklonan suara juga menjadi masalah, dengan penjahat memanfaatkan suara yang dihasilkan AI untuk meniru orang lain dan melakukan penipuan telepon . Contoh-contoh ini hanya menggores permukaan kemampuan AI, sehingga akan semakin sulit bagi lembaga pemerintah lokal dan nasional untuk menyesuaikan diri dan terus memberi tahu masyarakat tentang ancaman terbaru yang digerakkan oleh AI.
14. Ketidakstabilan Ekonomi dan Politik yang Lebih Luas
Investasi berlebihan pada material atau sektor tertentu dapat menempatkan ekonomi dalam posisi yang tidak pasti. Seperti baja , AI dapat berisiko menarik begitu banyak perhatian dan sumber daya keuangan sehingga pemerintah gagal mengembangkan teknologi dan industri lain. Ditambah lagi, produksi teknologi AI yang berlebihan dapat mengakibatkan pembuangan material berlebih, yang berpotensi jatuh ke tangan peretas dan pelaku kejahatan lainnya.
Cara Mengurangi Risiko AI
AI masih memiliki banyak manfaat , seperti mengatur data kesehatan dan menggerakkan mobil tanpa pengemudi. Namun, untuk mendapatkan hasil maksimal dari teknologi yang menjanjikan ini, beberapa pihak berpendapat bahwa diperlukan banyak regulasi .
"Ada bahaya serius bahwa kita akan segera mendapatkan [sistem AI] yang lebih pintar dari kita dan hal-hal ini mungkin memiliki motif yang buruk dan mengambil alih kendali," kata Hinton kepada NPR . "Ini bukan sekadar masalah fiksi ilmiah. Ini adalah masalah serius yang mungkin akan segera terjadi, dan politisi perlu memikirkan apa yang harus dilakukan untuk mengatasinya sekarang."
Mengembangkan Peraturan Hukum
Regulasi AI telah menjadi fokus utama bagi puluhan negara , dan kini AS dan Uni Eropa tengah menciptakan langkah-langkah yang lebih jelas untuk mengelola meningkatnya kecanggihan kecerdasan buatan. Faktanya, Kantor Kebijakan Sains dan Teknologi (OSTP) Gedung Putih menerbitkan AI Bill of Rights pada tahun 2022, sebuah dokumen yang menguraikan untuk membantu memandu penggunaan dan pengembangan AI secara bertanggung jawab. Selain itu, Presiden Joe Biden mengeluarkan perintah eksekutif pada tahun 2023 yang mewajibkan lembaga federal untuk mengembangkan aturan dan pedoman baru untuk keselamatan dan keamanan AI.
Meskipun peraturan hukum berarti teknologi AI tertentu pada akhirnya dapat dilarang, hal itu tidak menghalangi masyarakat untuk mengeksplorasi bidang tersebut.
Ford berpendapat bahwa AI sangat penting bagi negara yang ingin berinovasi dan mengikuti perkembangan dunia.
“Anda mengatur cara AI digunakan, tetapi Anda tidak menghambat kemajuan dalam teknologi dasar. Saya pikir itu keliru dan berpotensi berbahaya,” kata Ford. “Kita memutuskan di mana kita menginginkan AI dan di mana kita tidak menginginkannya; di mana AI dapat diterima dan di mana tidak. Dan setiap negara akan membuat pilihan yang berbeda.”
Menetapkan Standar dan Diskusi AI Organisasi
Di tingkat perusahaan, ada banyak langkah yang dapat diambil bisnis saat mengintegrasikan AI ke dalam operasi mereka. Organisasi dapat mengembangkan proses untuk memantau algoritma, menyusun data berkualitas tinggi, dan menjelaskan temuan algoritma AI. Para pemimpin bahkan dapat menjadikan AI sebagai bagian dari budaya perusahaan dan diskusi bisnis rutin mereka, serta menetapkan standar untuk menentukan teknologi AI yang dapat diterima.
Panduan Teknologi dengan Perspektif Humaniora
Meskipun jika menyangkut masyarakat secara keseluruhan, harus ada dorongan yang lebih besar bagi teknologi untuk merangkul beragam perspektif humaniora . Peneliti AI Universitas Stanford Fei-Fei Li dan John Etchemendy mengemukakan argumen ini dalam posting blog tahun 2019 yang menyerukan kepemimpinan nasional dan global dalam mengatur kecerdasan buatan:
“Pencipta AI harus mencari wawasan, pengalaman, dan perhatian orang-orang dari berbagai suku, jenis kelamin, budaya, dan kelompok sosial ekonomi, serta orang-orang dari bidang lain, seperti ekonomi, hukum, kedokteran, filsafat, sejarah, sosiologi, komunikasi, interaksi manusia-komputer, psikologi, dan Studi Sains dan Teknologi (STS).”
Menyeimbangkan inovasi teknologi tinggi dengan pemikiran yang berpusat pada manusia adalah metode ideal untuk menghasilkan teknologi AI yang bertanggung jawab dan memastikan masa depan AI tetap menjanjikan bagi generasi berikutnya. Bahaya kecerdasan buatan harus selalu menjadi topik diskusi, sehingga para pemimpin dapat menemukan cara untuk menggunakan teknologi tersebut demi tujuan yang mulia .
"Saya rasa kita dapat membicarakan semua risiko ini, dan risiko-risiko itu sangat nyata," kata Ford. "Namun, AI juga akan menjadi alat terpenting dalam perangkat kita untuk memecahkan tantangan terbesar yang kita hadapi."