banner large

AI Weekly: Langkah baru Microsoft dalam AI yang bertanggung jawab

Comment
X
Share

Kami sangat antusias untuk menghadirkan Transform 2022 kembali secara langsung pada 19 Juli dan 20 – 28 Juli secara virtual. Bergabunglah dengan AI dan pemimpin data untuk pembicaraan yang berwawasan luas dan peluang jaringan yang menarik. Daftar hari ini!


Ingin AI Weekly gratis setiap Kamis di kotak masuk Anda? Daftar disini.


Kami mungkin menikmati beberapa hari pertama musim panas, tetapi apakah itu Microsoft, Google, Amazon atau apa pun yang didukung AI, berita kecerdasan buatan tidak pernah berhenti untuk duduk di pantai, berjalan di bawah sinar matahari, atau menyalakan BBQ.

Bahkan, sulit untuk mengikutinya. Selama beberapa hari terakhir, misalnya, semua ini terjadi:

  • Pengumuman re:MARS Amazon menyebabkan media di seluruh dunia tentang kemungkinan masalah etika dan keamanan (dan keanehan keseluruhan) di sekitar kemampuan baru Alexa untuk mereplikasi suara orang mati.
  • Lebih dari 300 peneliti menandatangani surat terbuka mengutuk penyebaran GPT-4chan.
  • Google merilis lagi model teks-ke-gambar, Parti.
  • Saya memesan penerbangan saya ke San Francisco untuk menghadiri KTT Eksekutif langsung VentureBeat di Transform pada 19 Juli. (Oke, itu bukan berita yang sebenarnya, tapi saya tidak sabar untuk melihat AI dan komunitas data akhirnya bersatu di IRL. Sampai jumpa di sana ?)

Tapi minggu ini, saya fokus pada rilis Microsoft versi baru dari Responsible AI Standard — serta pengumumannya minggu ini bahwa mereka berencana untuk berhenti menjual alat analisis wajah di Azure.

Mari kita menggali.

Sharon Goldmaneditor senior dan penulis

Ketukan AI minggu ini

AI yang bertanggung jawab menjadi inti dari banyak pengumuman Microsoft Build tahun ini. Dan tidak diragukan lagi bahwa Microsoft telah menangani masalah yang terkait dengan AI yang bertanggung jawab setidaknya sejak 2018 dan telah mendorong undang-undang untuk mengatur teknologi pengenalan wajah.

Rilis Microsoft minggu ini dari versi 2 dari Responsible AI Standard adalah langkah baik berikutnya, kata pakar AI, meskipun masih banyak yang harus dilakukan. Dan meskipun hampir tidak disebutkan dalam Standar, pengumuman Microsoft yang diliput secara luas bahwa mereka akan menghentikan akses publik ke alat pengenalan wajah di Azure – karena kekhawatiran tentang bias, invasif, dan keandalan – dipandang sebagai bagian dari perombakan yang lebih besar terhadap kebijakan etika AI Microsoft. .

‘Langkah besar ke depan’ Microsoft dalam AI yang bertanggung jawab secara spesifik standar

Menurut ilmuwan komputer Ben Shneiderman, penulis AI yang Berpusat pada Manusia, Standar AI Bertanggung Jawab Microsoft yang baru adalah langkah maju yang besar dari 18 Pedoman Microsoft untuk Interaksi Manusia-AI.

“Standar baru jauh lebih spesifik, bergeser dari masalah etika ke praktik manajemen, alur kerja rekayasa perangkat lunak, dan persyaratan dokumentasi,” katanya.

Abhishek Gupta, pemimpin senior AI yang bertanggung jawab di Boston Consulting Group dan peneliti utama di Institut Etika AI Montreal, setuju, menyebut standar baru ini sebagai “udara segar yang sangat dibutuhkan, karena melampaui prinsip tingkat tinggi yang sebagian besar telah menjadi norma sejauh ini.” dia berkata.

Memetakan prinsip-prinsip yang diartikulasikan sebelumnya ke sub-tujuan tertentu dan penerapannya pada jenis sistem AI dan fase siklus hidup AI menjadikannya dokumen yang dapat ditindaklanjuti, jelasnya, sementara itu juga berarti bahwa praktisi dan operator “dapat melewati tingkat ketidakjelasan yang luar biasa. yang mereka alami ketika mencoba menerapkan prinsip.”

Bias yang belum terselesaikan dan risiko privasi

Mengingat bias yang belum terselesaikan dan risiko privasi dalam teknologi pengenalan wajah, keputusan Microsoft untuk berhenti menjual alat Azure-nya adalah “sangat bertanggung jawab,” tambah Gupta. “Ini adalah batu loncatan pertama dalam keyakinan saya bahwa alih-alih pola pikir ‘bergerak cepat dan hancurkan banyak hal’, kita perlu mengadopsi pola pikir ‘berkembang cepat dan perbaiki secara bertanggung jawab’.”

Tetapi Annette Zimmerman, VP analis di Gartner, mengatakan dia percaya bahwa Microsoft menghilangkan demografi wajah dan deteksi emosi hanya karena perusahaan mungkin tidak memiliki kendali atas cara penggunaannya.

“Ini adalah topik kontroversial yang terus berlanjut untuk mendeteksi demografi, seperti jenis kelamin dan usia, mungkin memasangkannya dengan emosi dan menggunakannya untuk membuat keputusan yang akan memengaruhi individu yang dinilai, seperti keputusan perekrutan atau penjualan pinjaman,” dia dijelaskan. “Karena masalah utamanya adalah bahwa keputusan ini dapat menjadi bias, Microsoft menghilangkan teknologi ini termasuk deteksi emosi.”

Produk seperti Microsoft, yang merupakan SDK atau API yang dapat diintegrasikan ke dalam aplikasi yang tidak dapat dikendalikan oleh Microsoft, berbeda dengan solusi ujung ke ujung dan produk khusus di mana terdapat transparansi penuh, tambahnya.

“Produk yang mendeteksi emosi untuk tujuan riset pasar, pengisahan cerita, atau pengalaman pelanggan – semua kasus di mana Anda tidak membuat keputusan selain meningkatkan layanan – akan tetap berkembang di pasar teknologi ini,” katanya.

Apa yang hilang dari Standar AI Bertanggung Jawab Microsoft

Masih banyak pekerjaan yang harus dilakukan oleh Microsoft dalam hal AI yang bertanggung jawab, kata para ahli.

Apa yang hilang, kata Shneiderman, adalah persyaratan untuk hal-hal seperti jejak audit atau logging; pengawasan independen; situs web pelaporan insiden publik; ketersediaan dokumen dan laporan kepada pemangku kepentingan, termasuk jurnalis, kelompok kepentingan publik, profesional industri; pelaporan terbuka dari masalah yang dihadapi; dan transparansi tentang proses Microsoft untuk tinjauan internal proyek.

Salah satu faktor yang perlu mendapat perhatian lebih adalah memperhitungkan dampak lingkungan dari sistem AI, “terutama mengingat pekerjaan yang dilakukan Microsoft terhadap model skala besar,” kata Gupta. “Rekomendasi saya adalah mulai memikirkan pertimbangan lingkungan sebagai warga negara kelas satu di samping pertimbangan bisnis dan fungsional dalam desain, pengembangan, dan penerapan sistem AI,” katanya.

Masa depan AI yang bertanggung jawab

Gupta memperkirakan bahwa pengumuman Microsoft akan memicu tindakan serupa yang keluar dari perusahaan lain selama 12 bulan ke depan.

“Kami mungkin juga melihat rilis lebih banyak alat dan kemampuan dalam platform Azure yang akan membuat beberapa standar yang disebutkan dalam Standar AI Bertanggung Jawab mereka lebih dapat diakses secara luas oleh pelanggan platform Azure, sehingga mendemokratisasi kemampuan RAI terhadap mereka yang tidak membutuhkannya. memiliki sumber daya untuk melakukannya sendiri, ”katanya.

Shneiderman mengatakan bahwa dia berharap perusahaan lain akan meningkatkan permainan mereka ke arah ini, menunjuk pada AI Fairness 360 IBM dan pendekatan terkait serta Buku Panduan People and AI Research (PAIR) Google.

“Kabar baiknya adalah bahwa perusahaan besar dan kecil bergerak dari prinsip-prinsip etika yang tidak jelas ke praktik bisnis tertentu dengan memerlukan beberapa bentuk dokumentasi, pelaporan masalah, dan berbagi informasi dengan pemangku kepentingan/pelanggan tertentu,” katanya, menambahkan bahwa lebih banyak kebutuhan untuk dilakukan untuk membuat sistem ini terbuka untuk tinjauan publik: “Saya pikir ada pengakuan yang berkembang bahwa sistem AI yang gagal menghasilkan perhatian publik negatif yang substansial, menjadikan sistem AI yang andal, aman, dan tepercaya sebagai keunggulan kompetitif.”

Leave a Reply

Your email address will not be published.