banner large

Etika AI harus dikodekan seperti keamanan berdasarkan desain

Comment
X
Share

Bisnis perlu memikirkan etika sejak awal ketika mereka mulai membuat konsep dan mengembangkan produk kecerdasan buatan (AI). Ini akan membantu memastikan alat AI dapat diimplementasikan secara bertanggung jawab dan tanpa bias.

Pendekatan yang sama sudah dianggap penting untuk produk keamanan siber, di mana prinsip pengembangan “keamanan berdasarkan desain” akan mendorong kebutuhan untuk menilai risiko dan keamanan hardcode sejak awal, sehingga tambal sulam sedikit demi sedikit dan perkuatan yang mahal dapat dihindari di tahap selanjutnya.

Pola pikir ini sekarang harus diterapkan pada pengembangan produk AI, kata Kathy Baxter, arsitek utama untuk praktik AI etis Salesforce.com, yang menggarisbawahi perlunya organisasi untuk memenuhi standar pengembangan mendasar dengan etika AI.

Dia mencatat bahwa ada banyak pelajaran yang bisa dipetik dari industri keamanan siber, yang telah berkembang dalam beberapa dekade terakhir sejak malware pertama muncul pada 1980-an. Untuk sektor yang bahkan belum ada sebelumnya, keamanan siber telah mengubah cara perusahaan melindungi sistem mereka, dengan penekanan pada mengidentifikasi risiko sejak awal dan mengembangkan standar dan peraturan dasar yang harus diterapkan.

Akibatnya, sebagian besar organisasi saat ini akan menerapkan standar keamanan dasar yang harus dipatuhi oleh semua pemangku kepentingan termasuk karyawan, kata Baxter dalam sebuah wawancara dengan ZDNet. Semua karyawan baru di Salesforce.com, misalnya, harus menjalani proses orientasi di mana perusahaan menguraikan apa yang diharapkan dari karyawan dalam hal praktik keamanan siber, seperti mengadopsi kata sandi yang kuat dan menggunakan VPN.

Hal yang sama berlaku untuk etika, katanya, menambahkan bahwa ada tim internal yang didedikasikan untuk mendorong ini di dalam perusahaan.

Ada juga sumber daya untuk membantu karyawan menilai apakah tugas atau layanan harus dilakukan berdasarkan pedoman etika perusahaan dan memahami di mana garis merahnya, kata Baxter. Einstein Vision yang didukung AI dari Salesforce.com, misalnya, tidak akan pernah dapat digunakan untuk pengenalan wajah, sehingga setiap anggota penjualan yang tidak mengetahui hal ini dan mencoba menjual produk untuk penerapan tersebut akan melanggar kebijakan perusahaan.

Dan seperti halnya praktik keamanan siber yang ditinjau dan direvisi secara teratur untuk mengimbangi lanskap ancaman yang berubah, hal yang sama harus diterapkan pada kebijakan yang terkait dengan etika AI, katanya.

Ini sangat penting karena masyarakat dan budaya berubah dari waktu ke waktu, di mana nilai-nilai yang pernah dianggap relevan 10 tahun yang lalu mungkin tidak lagi selaras dengan pandangan yang dipegang oleh populasi suatu negara saat ini, katanya. Produk AI diperlukan untuk mencerminkan hal ini.

Data merupakan penghalang utama untuk mengatasi bias AI

Sementara kebijakan dapat mengurangi beberapa risiko bias dalam AI, masih ada tantangan lain–khususnya, akses ke data. Kurangnya volume atau variasi dapat mengakibatkan representasi industri atau segmen yang tidak akurat.

Ini adalah tantangan yang signifikan di sektor perawatan kesehatan, terutama di negara-negara seperti AS di mana tidak ada obat yang disosialisasikan atau sistem perawatan kesehatan yang dikelola pemerintah, kata Baxter. Ketika model AI dilatih oleh kumpulan data terbatas berdasarkan subset populasi yang sempit, hal itu dapat berdampak pada penyampaian layanan kesehatan dan kemampuan untuk mendeteksi penyakit untuk kelompok orang tertentu.

Salesforce.com, yang tidak dapat mengakses atau menggunakan data pelanggannya untuk melatih model AI-nya sendiri, akan menutup celah dengan membeli dari sumber eksternal seperti data linguistik, yang digunakan untuk melatih chatbotnya, serta memanfaatkan data sintetis.

Ditanya tentang peran yang dimainkan regulator dalam mendorong etika AI, Baxter mengatakan mengamanatkan penggunaan metrik tertentu bisa berbahaya karena masih ada banyak pertanyaan seputar definisi “AI yang dapat dijelaskan” dan bagaimana hal itu harus diterapkan.

Eksekutif Salesforce.com adalah anggota dewan penasihat Singapura tentang penggunaan etis AI dan data, yang memberi saran kepada pemerintah tentang kebijakan dan tata kelola terkait penggunaan teknologi berbasis data di sektor swasta.

Menunjuk pengalamannya di dewan, Baxter mengatakan para anggotanya segera menyadari bahwa mendefinisikan “keadilan” saja sudah rumit, dengan lebih dari 200 definisi statistik. Lebih jauh lagi, apa yang adil bagi satu kelompok terkadang tak terhindarkan akan kurang adil bagi kelompok lain, katanya.

Mendefinisikan “dapat dijelaskan” juga rumit di mana bahkan ahli pembelajaran mesin dapat salah menafsirkan bagaimana model bekerja berdasarkan penjelasan yang telah ditentukan, katanya. Kebijakan atau peraturan yang ditetapkan harus mudah dipahami oleh siapa saja yang menggunakan data yang didukung AI dan di semua sektor, seperti agen lapangan atau pekerja sosial.

Menyadari bahwa masalah seperti itu rumit, Baxter mengatakan dewan Singapura memutuskan akan lebih efektif untuk menetapkan kerangka kerja dan pedoman, termasuk toolkit, untuk membantu pengadopsi AI memahami dampaknya dan transparan dengan penggunaan AI mereka.

Singapura bulan lalu merilis toolkit, yang disebut AI Verify, yang dikatakan akan memungkinkan bisnis untuk menunjukkan penggunaan AI mereka yang “objektif dan dapat diverifikasi”. Langkah ini merupakan bagian dari upaya pemerintah untuk mendorong transparansi dalam penerapan AI melalui pemeriksaan teknis dan proses.

Baxter mendesak perlunya menghilangkan kesalahpahaman bahwa sistem AI secara default adil hanya karena mereka adalah mesin dan, karenanya, tanpa bias. Organisasi dan pemerintah harus menginvestasikan upaya untuk memastikan manfaat AI didistribusikan secara merata dan penerapannya memenuhi kriteria tertentu dari AI yang bertanggung jawab, katanya.

CAKUPAN TERKAIT

Leave a Reply

Your email address will not be published.