banner large

Membangun AI yang bertanggung jawab: 5 pilar untuk masa depan yang etis

Comment
X
Share

Kami sangat antusias untuk menghadirkan Transform 2022 kembali secara langsung pada 19 Juli dan 20 – 28 Juli secara virtual. Bergabunglah dengan AI dan pemimpin data untuk pembicaraan yang berwawasan luas dan peluang jaringan yang menarik. Daftar hari ini!


Selama ada kemajuan teknologi, ada kekhawatiran atas implikasinya. Proyek Manhattan, ketika para ilmuwan bergulat dengan peran mereka dalam melepaskan tenaga nuklir yang inovatif, namun merusak, adalah contoh utama. Lord Solomon “Solly” Zuckerman adalah seorang penasihat ilmiah untuk Sekutu selama Perang Dunia 2, dan setelah itu seorang advokat nonproliferasi nuklir terkemuka. Dia dikutip pada tahun 1960-an dengan wawasan yang masih berlaku sampai sekarang: “Ilmu pengetahuan menciptakan masa depan tanpa mengetahui apa yang akan terjadi di masa depan.”

Kecerdasan buatan (AI), sekarang menjadi istilah umum untuk perangkat lunak pembelajaran mesin (ML) apa pun yang dirancang untuk melakukan tugas-tugas kompleks yang biasanya membutuhkan kecerdasan manusia, ditakdirkan untuk memainkan peran besar dalam masyarakat masa depan kita. Proliferasi baru-baru ini telah menyebabkan ledakan minat, serta peningkatan pengawasan tentang bagaimana AI dikembangkan dan siapa yang melakukan pengembangan, menyoroti bagaimana bias memengaruhi desain dan fungsi. UE sedang merencanakan undang-undang baru yang bertujuan untuk mengurangi potensi bahaya yang mungkin ditimbulkan oleh AI dan AI yang bertanggung jawab akan diwajibkan oleh hukum.

Sangat mudah untuk memahami mengapa pagar pembatas seperti itu diperlukan. Manusia sedang membangun sistem AI, jadi mereka mau tidak mau membawa pandangan mereka sendiri tentang etika ke dalam desain, seringkali menjadi lebih buruk. Beberapa contoh meresahkan telah muncul – algoritma untuk kartu Apple dan perekrutan pekerjaan di Amazon masing-masing diselidiki untuk bias gender, dan Google [subscription required] harus memperlengkapi kembali layanan fotonya setelah penandaan rasis. Setiap perusahaan sejak itu telah memperbaiki masalah, tetapi teknologinya bergerak cepat, menggarisbawahi pelajaran bahwa membangun teknologi unggul tanpa memperhitungkan risiko seperti berlari dengan mata tertutup.

Membangun AI yang bertanggung jawab

Melvin Greer, kepala ilmuwan data di Intel, menunjukkan di VentureBeat bahwa “…para ahli di bidang AI yang bertanggung jawab benar-benar ingin fokus untuk berhasil mengelola risiko bias AI, sehingga kami tidak hanya menciptakan sistem yang melakukan sesuatu yang diklaim, tetapi melakukan sesuatu dalam konteks perspektif yang lebih luas yang mengakui norma dan moral masyarakat.”

Dengan kata lain, mereka yang merancang sistem AI harus bertanggung jawab atas pilihan mereka, dan pada dasarnya “melakukan hal yang benar” dalam hal mengimplementasikan perangkat lunak.

Jika perusahaan atau tim Anda berencana untuk membangun atau menggabungkan sistem AI, berikut adalah lima pilar yang harus menjadi fondasi Anda:

1. Akuntabilitas

Anda akan berpikir bahwa manusia akan mempertimbangkan desain AI sejak awal, tetapi sayangnya, tidak selalu demikian. Insinyur dan pengembang dapat dengan mudah tersesat dalam kode. Tetapi pertanyaan besar yang muncul ketika manusia dibawa ke dalam lingkaran sering kali, “Seberapa besar kepercayaan yang Anda berikan pada sistem ML untuk mulai membuat keputusan?”

Contoh paling jelas dari pentingnya ini adalah mobil self-driving, di mana kita “mempercayakan” kendaraan untuk “mengetahui” apa keputusan yang tepat untuk pengemudi manusia. Tetapi bahkan dalam skenario lain seperti keputusan peminjaman, desainer perlu mempertimbangkan metrik keadilan dan bias apa yang terkait dengan model ML. Praktik terbaik yang cerdas untuk diterapkan adalah dengan membuat komite etika AI yang berkelanjutan untuk membantu mengawasi keputusan kebijakan ini, dan mendorong audit dan ulasan untuk memastikan Anda mengikuti standar masyarakat modern.

2. Replikabilitas

Sebagian besar organisasi menggunakan data dari sejumlah sumber (gudang data, penyedia penyimpanan cloud, dll.), tetapi jika data tersebut tidak seragam (artinya 1:1), hal itu dapat menyebabkan masalah saat Anda mencoba mengumpulkannya. wawasan untuk memecahkan masalah atau memperbarui fungsi. Sangat penting bagi perusahaan yang mengembangkan sistem AI untuk menstandarkan pipeline ML mereka untuk membuat data yang komprehensif dan katalog model. Ini akan membantu merampingkan pengujian dan validasi, serta meningkatkan kemampuan untuk menghasilkan dasbor dan visualisasi yang akurat.

3. Transparansi

Seperti kebanyakan hal, transparansi adalah kebijakan terbaik. Dalam hal model ML, transparansi sama dengan interpretabilitas (yaitu, memastikan model ML dapat dijelaskan). Ini sangat penting di sektor-sektor seperti perbankan dan perawatan kesehatan, di mana Anda harus dapat menjelaskan dan membenarkan kepada pelanggan mengapa Anda membangun model khusus ini untuk memastikan keadilan terhadap bias yang tidak diinginkan. Artinya, jika seorang insinyur tidak dapat membenarkan mengapa fitur ML tertentu ada untuk kepentingan pelanggan, fitur itu seharusnya tidak ada. Di sinilah pemantauan dan metrik memainkan peran besar, dan sangat penting untuk mengawasi kinerja statistik untuk memastikan kemanjuran jangka panjang dari sistem AI.

4. Keamanan

Dalam kasus AI, keamanan lebih berkaitan dengan bagaimana perusahaan harus melindungi model ML mereka, dan biasanya mencakup teknologi seperti komputasi terenkripsi dan pengujian permusuhan – karena sistem AI tidak dapat bertanggung jawab jika rentan terhadap serangan. Pertimbangkan skenario kehidupan nyata ini: Ada model visi komputer yang dirancang untuk mendeteksi tanda berhenti, tetapi ketika seseorang menempelkan stiker kecil di tanda berhenti (bahkan tidak dapat dibedakan oleh mata manusia), sistem itu tertipu. Contoh seperti ini dapat memiliki implikasi keamanan yang besar, jadi Anda harus selalu waspada dengan keamanan untuk mencegah kelemahan tersebut.

5. Privasi

Pilar terakhir ini selalu menjadi isu panas, terutama dengan begitu banyak skandal Facebook yang sedang berlangsung yang melibatkan data pelanggan. AI mengumpulkan sejumlah besar data, dan perlu ada pedoman yang sangat jelas tentang kegunaannya. (Pikirkan GDPR di Eropa.) Selain peraturan pemerintah, setiap perusahaan yang merancang AI perlu menjadikan privasi sebagai perhatian utama dan menggeneralisasi data mereka agar tidak menyimpan catatan individu. Ini sangat penting dalam perawatan kesehatan atau industri apa pun dengan data pasien yang sensitif. Untuk informasi lebih lanjut, lihat teknologi seperti pembelajaran gabungan dan privasi diferensial.

AI yang Bertanggung Jawab: Jalan di depan

Bahkan setelah mempertimbangkan lima pilar ini, tanggung jawab dalam AI dapat terasa seperti situasi yang sangat sulit – tepat ketika Anda berpikir bahwa teknologi beroperasi secara etis, nuansa lain muncul. Ini hanyalah bagian dari proses indoktrinasi teknologi baru yang menarik ke dunia dan, mirip dengan internet, kita mungkin tidak akan pernah berhenti berdebat, mengutak-atik, dan meningkatkan fungsionalitas AI.

Jangan salah, meskipun; implikasi AI sangat besar dan akan memiliki dampak jangka panjang pada banyak industri. Cara yang baik untuk mulai bersiap sekarang adalah dengan berfokus pada membangun tim yang beragam dalam organisasi Anda. Membawa orang-orang dari berbagai ras, jenis kelamin, latar belakang, dan budaya akan mengurangi kemungkinan bias Anda bahkan sebelum Anda melihat teknologinya. Dengan melibatkan lebih banyak orang dalam proses dan mempraktikkan pemantauan berkelanjutan, kami akan memastikan AI lebih efisien, etis, dan bertanggung jawab.

Dattaraj Rao adalah kepala ilmuwan data di Persistent.

DataDecisionMakers

Selamat datang di komunitas VentureBeat!

DataDecisionMakers adalah tempat para ahli, termasuk orang-orang teknis yang melakukan pekerjaan data, dapat berbagi wawasan dan inovasi terkait data.

Jika Anda ingin membaca tentang ide-ide mutakhir dan informasi terkini, praktik terbaik, dan masa depan teknologi data dan data, bergabunglah dengan kami di DataDecisionMakers.

Anda bahkan mungkin mempertimbangkan untuk menyumbangkan artikel Anda sendiri!

Baca Lebih Lanjut Dari DataDecisionMakers

Leave a Reply

Your email address will not be published.