banner large

Alih-alih perasaan AI, fokuslah pada risiko model bahasa besar saat ini

Comment
X
Share

Kami sangat antusias untuk menghadirkan Transform 2022 kembali secara langsung pada 19 Juli dan 20 – 28 Juli secara virtual. Bergabunglah dengan AI dan pemimpin data untuk pembicaraan yang berwawasan luas dan peluang jaringan yang menarik. Daftar hari ini!


Baru-baru ini, seorang insinyur Google menjadi berita utama internasional ketika dia menegaskan bahwa LaMDA, sistem mereka untuk membangun chatbot, adalah makhluk hidup. Sejak posting awalnya, perdebatan publik telah berkecamuk mengenai apakah kecerdasan buatan (AI) menunjukkan kesadaran dan mengalami perasaan sama akutnya dengan manusia.

Meskipun topiknya tidak diragukan lagi menarik, itu juga membayangi risiko lain yang lebih mendesak seperti ketidakadilan dan hilangnya privasi yang ditimbulkan oleh model bahasa skala besar (LLM), terutama bagi perusahaan yang berlomba untuk mengintegrasikan model ini ke dalam produk dan layanan mereka. Risiko-risiko ini semakin diperkuat oleh fakta bahwa perusahaan-perusahaan yang menerapkan model-model ini seringkali tidak memiliki wawasan tentang data dan metode spesifik yang digunakan untuk membuatnya, yang dapat menyebabkan masalah bias, ujaran kebencian, dan stereotip.

Apa itu LLM?

LLM adalah jaringan saraf besar yang belajar dari kumpulan besar teks bebas (pikirkan buku, Wikipedia, Reddit, dan sejenisnya). Meskipun dirancang untuk menghasilkan teks, seperti meringkas dokumen panjang atau menjawab pertanyaan, mereka ternyata unggul dalam berbagai tugas lain, mulai dari membuat situs web hingga meresepkan obat hingga aritmatika dasar.

Kemampuan untuk menggeneralisasi tugas-tugas yang awalnya tidak dirancang inilah yang telah mendorong LLM ke bidang penelitian utama. Komersialisasi terjadi di seluruh industri dengan menyesuaikan model dasar yang dibuat dan dilatih oleh orang lain (misalnya, OpenAI, Google, Microsoft, dan perusahaan teknologi lainnya) untuk tugas-tugas tertentu.

Para peneliti di Stanford menciptakan istilah “model dasar” untuk mengkarakterisasi fakta bahwa model pra-pelatihan ini mendasari aplikasi lain yang tak terhitung jumlahnya. Sayangnya, model besar ini juga membawa risiko besar.

Kelemahan dari LLM

Yang paling utama di antara risiko-risiko itu: kerugian lingkungan, yang bisa sangat besar. Satu makalah yang dikutip dengan baik dari tahun 2019 menemukan bahwa melatih satu model besar dapat menghasilkan karbon sebanyak lima mobil selama masa pakainya — dan model hanya menjadi lebih besar sejak saat itu. Kerugian lingkungan ini memiliki implikasi langsung terhadap seberapa baik suatu bisnis dapat memenuhi komitmen keberlanjutannya dan, lebih luas lagi, target LST-nya. Bahkan ketika bisnis mengandalkan model yang dilatih oleh orang lain, jejak karbon dari pelatihan model tersebut tidak dapat diabaikan, konsisten dengan cara perusahaan harus melacak emisi di seluruh rantai pasokan mereka.

Lalu ada masalah bias. Sumber data internet yang biasa digunakan untuk melatih model-model ini ternyata mengandung bias terhadap sejumlah kelompok, termasuk penyandang disabilitas dan perempuan. Mereka juga mewakili pengguna yang lebih muda dari negara maju, mengabadikan pandangan dunia itu dan mengurangi dampak populasi yang kurang terwakili.

Ini memiliki dampak langsung pada komitmen DEI bisnis. Sistem AI mereka mungkin terus melanggengkan bias bahkan ketika mereka berusaha untuk memperbaiki bias tersebut di tempat lain dalam operasi mereka, seperti dalam praktik perekrutan mereka. Mereka juga dapat membuat aplikasi yang menghadap pelanggan yang gagal menghasilkan hasil yang konsisten atau andal di seluruh geografi, usia, atau subkelompok pelanggan lainnya.

LLM juga dapat memiliki hasil yang tidak terduga dan menakutkan yang dapat menimbulkan bahaya nyata. Ambil contoh, artis yang menggunakan LLM untuk menciptakan kembali teman imajiner masa kecilnya, hanya untuk meminta teman imajinernya memasukkan kepalanya ke dalam microwave. Meskipun ini mungkin merupakan contoh ekstrem, bisnis tidak dapat mengabaikan risiko ini, terutama dalam kasus di mana LLM diterapkan di area yang secara inheren berisiko tinggi seperti perawatan kesehatan.

Risiko-risiko ini semakin diperkuat oleh fakta bahwa mungkin ada kurangnya transparansi ke dalam semua bahan yang digunakan untuk menciptakan sistem AI tingkat produksi yang modern. Ini dapat mencakup saluran data, inventaris model, metrik pengoptimalan, dan pilihan desain yang lebih luas dalam interaksi sistem dengan manusia. Perusahaan tidak boleh membabi buta mengintegrasikan model yang telah dilatih sebelumnya ke dalam produk dan layanan mereka tanpa mempertimbangkan dengan cermat tujuan penggunaan, sumber data, dan berbagai pertimbangan lain yang mengarah pada risiko yang dijelaskan sebelumnya.

Janji LLM sangat menarik, dan dalam situasi yang tepat, mereka dapat memberikan hasil bisnis yang mengesankan. Mengejar manfaat ini, bagaimanapun, tidak dapat berarti mengabaikan risiko yang dapat menyebabkan kerugian pelanggan dan masyarakat, litigasi, pelanggaran peraturan dan implikasi perusahaan lainnya.

Janji AI yang bertanggung jawab

Secara lebih luas, perusahaan yang mengejar AI harus menerapkan program AI (RAI) yang bertanggung jawab dan kuat untuk memastikan sistem AI mereka konsisten dengan nilai-nilai perusahaan mereka. Ini dimulai dengan strategi menyeluruh yang mencakup prinsip, taksonomi risiko, dan definisi selera risiko khusus AI.

Juga penting dalam program tersebut adalah menempatkan tata kelola dan proses untuk mengidentifikasi dan mengurangi risiko. Ini termasuk akuntabilitas yang jelas, eskalasi dan pengawasan, dan integrasi langsung ke dalam fungsi risiko perusahaan yang lebih luas.

Pada saat yang sama, karyawan harus memiliki mekanisme untuk menyampaikan masalah etika tanpa rasa takut akan pembalasan, yang kemudian dievaluasi dengan cara yang jelas dan transparan. Perubahan budaya yang menyelaraskan program RAI ini dengan misi dan nilai-nilai organisasi meningkatkan peluang keberhasilan. Akhirnya, proses kunci untuk pengembangan produk — KPI, pemantauan dan kontrol portofolio, serta kemudi dan desain program — dapat meningkatkan kemungkinan keberhasilan juga.

Sementara itu, penting untuk mengembangkan proses untuk membangun keahlian AI yang bertanggung jawab ke dalam pengembangan produk. Ini termasuk proses penilaian risiko terstruktur di mana tim mengidentifikasi semua pemangku kepentingan yang relevan, mempertimbangkan dampak tingkat kedua dan ketiga yang dapat terjadi secara tidak sengaja dan mengembangkan rencana mitigasi.

Mengingat sifat sosioteknis dari banyak masalah ini, penting juga untuk mengintegrasikan pakar RAI ke dalam upaya yang secara inheren berisiko tinggi untuk membantu proses ini. Tim juga membutuhkan teknologi, alat, dan kerangka kerja baru untuk mempercepat pekerjaan mereka sekaligus memungkinkan mereka untuk menerapkan solusi secara bertanggung jawab. Ini termasuk toolkit perangkat lunak, buku pedoman untuk pengembangan yang bertanggung jawab dan template dokumentasi untuk memungkinkan audit dan transparansi.

Memimpin dengan RAI dari atas

Para pemimpin bisnis harus siap untuk mengomunikasikan komitmen dan proses RAI mereka secara internal dan eksternal. Misalnya, mengembangkan kode etik AI yang melampaui prinsip tingkat tinggi untuk mengartikulasikan pendekatan mereka terhadap AI yang bertanggung jawab.

Selain mencegah kerugian yang tidak disengaja bagi pelanggan dan, secara lebih luas, masyarakat pada umumnya, RAI dapat menjadi sumber nilai yang nyata bagi perusahaan. Pemimpin AI yang bertanggung jawab melaporkan retensi pelanggan yang lebih tinggi, diferensiasi pasar, inovasi yang dipercepat, dan perekrutan dan retensi karyawan yang lebih baik. Komunikasi eksternal tentang upaya RAI perusahaan membantu menciptakan transparansi yang diperlukan untuk meningkatkan kepercayaan pelanggan dan mewujudkan manfaat ini.

LLM adalah alat yang ampuh yang siap untuk menciptakan dampak bisnis yang luar biasa. Sayangnya, mereka juga membawa risiko nyata yang perlu diidentifikasi dan dikelola. Dengan langkah yang tepat, para pemimpin perusahaan dapat menyeimbangkan manfaat dan risiko untuk memberikan dampak transformatif sekaligus meminimalkan risiko bagi pelanggan, karyawan, dan masyarakat. Namun, kita tidak boleh membiarkan diskusi seputar AI yang hidup menjadi gangguan yang membuat kita tidak fokus pada isu-isu penting dan terkini ini.

Steven Mills adalah kepala petugas etika AI dan Abhishek Gupta adalah pemimpin & pakar AI senior yang bertanggung jawab di BCG.

DataDecisionMakers

Selamat datang di komunitas VentureBeat!

DataDecisionMakers adalah tempat para ahli, termasuk orang-orang teknis yang melakukan pekerjaan data, dapat berbagi wawasan dan inovasi terkait data.

Jika Anda ingin membaca tentang ide-ide mutakhir dan informasi terkini, praktik terbaik, dan masa depan teknologi data dan data, bergabunglah dengan kami di DataDecisionMakers.

Anda bahkan mungkin mempertimbangkan untuk menyumbangkan artikel Anda sendiri!

Baca Lebih Lanjut Dari DataDecisionMakers

Leave a Reply

Your email address will not be published. Required fields are marked *