Bagaimana kita mengajar robot betul dan salah?

algoritma menunjukkan palsu pada robot media sosial yang betul etika salahCatatan editor: Digital Trends telah bekerjasama dengan WebVisions, persidangan reka bentuk, teknologi, dan pengalaman pengguna yang diakui secara antarabangsa, untuk membantu membawa Douglas Rushkoff yang lumayan ke acara tahun ini di Portland, Oregon. Sebagai sebahagian daripada perkongsian kami, kami juga senang menampilkan kandungan terpilih dari blog WebVisions yang berwawasan, Word. Minggu ini, penyumbang Mark Wyner bertanya-tanya bagaimana kita mengajar kepintaran buatan betul dan salah. Selamat mencuba!

Twitter telah mengakui bahawa sebanyak 23 juta (8.5 peratus) akaun penggunanya adalah Twitterbots autonomi. Banyak yang ada untuk meningkatkan produktiviti, menjalankan penyelidikan, atau bahkan bersenang-senang. Namun banyak yang diciptakan dengan niat jahat. Dalam kedua-dua kes tersebut, bot telah diketahui berperilaku dengan etika yang dipersoalkan - mungkin kerana mereka hanyalah spesimen kecil kecerdasan buatan (AI).

Manusia kini sedang membina mesin yang lebih canggih yang akan menghadapi persoalan etika pada skala monumental. Walaupun dalam kematian manusia. Oleh itu, bagaimana kita memastikan bahawa mereka membuat pilihan yang tepat apabila tiba masanya?

Bangun atau ajarkan

Faktor utama berjaya membina mesin autonomi yang bertepatan secara simbiotik dengan manusia adalah etika. Dan pada dasarnya ada dua cara untuk memprogram etika ke dalam mesin:

Pertama, anda boleh memasukkannya ke dalam sistem operasi mereka. Yang menjadi perhatian di sini ialah etika bersifat subjektif. Etika dalam mesin bergantung pada etika penciptanya. Tetapi kita manusia tidak selalu selaras dengan moral kita. Kami berperang kerana perbezaan etika. Oleh itu, semasa kita membina mesin autonomi agar beretika, kita membangun dalam batasan perbezaan yang ada.

robot-betul-salah-etika-2

Kedua, anda boleh memberikan beberapa panduan, kemudian membenarkan mesin mempelajari etika sendiri berdasarkan pengalamannya sendiri. Pendekatan pasif ini memberi banyak ruang untuk salah tafsiran moral, bergantung pada tingkah laku yang diperhatikan. Pertimbangkan kehancuran AI Twitter Twitter Microsoft baru-baru ini, Tay, yang ditipu dengan tweet penghinaan rasis dan promosi pembunuhan beramai-ramai berdasarkan kesimpulan yang salah mengenai etika yang normal.

Satu pasukan di Georgia Tech mengusahakan yang terakhir, mengajar sistem kognitif untuk belajar bagaimana berkelakuan dengan cara yang dapat diterima secara sosial dengan membaca cerita. Sistem ganjaran yang disebut Quixote seharusnya dapat membantu sistem kognitif mengenal pasti protagonis dalam cerita, yang digunakan mesin untuk menyelaraskan nilai-nilai mereka sendiri dengan nilai-nilai manusia. Tidak jelas kaedah apa yang digunakan Microsoft dengan Tay. Tetapi jika teknik mereka bersifat preemptive, seperti sistem pembelajaran Georgia Tech, kita masih jauh dari memantapkan etika dalam Artificial Intelligence.

Kelumpuhan etika

Sekarang, semua ini berdasarkan idea bahawa komputer dapat memahami etika. Seperti yang ditunjukkan oleh Alan Winfield dalam kajiannya Menuju Robot Etika , ketika komputer menghadapi paradoks etika, hasilnya tidak dapat diramalkan, sering melumpuhkan. Dalam kajiannya, robot kognitif (A-robot) diminta menyelamatkan robot "manusia" (H-robot) dari bahaya. Apabila robot A dapat menyelamatkan hanya satu dari dua robot H, robot itu tergelincir dan kebingungan dalam kebingungannya sendiri, tidak akan menyelamatkan satu pun.

Terdapat perbahasan falsafah kuno mengenai sama ada etika adalah masalah akal atau emosi. Di kalangan ahli psikologi moden, terdapat konsensus bahawa pengambilan keputusan beretika memerlukan pertimbangan rasional dan emosi. Seperti yang diceritakan oleh Profesor Paul Thagard mengenai topik ini, “penilaian etika sering sangat emosional, ketika orang menyatakan persetujuan atau penolakan mereka terhadap pelbagai tindakan. Sama ada rasionalnya bergantung pada apakah penilaian kognitif yang merupakan sebahagian daripada emosi dilakukan dengan baik atau buruk. "

Keputusan dengan akibat

Oleh itu, jika mesin kognitif tidak mempunyai kemampuan untuk beretika, siapa yang bertanggungjawab ketika mereka melanggar undang-undang? Pada masa ini, tidak ada yang tahu. Ryan Calo dari University of Washington School of Law menyatakan, "robotik menggabungkan, untuk pertama kalinya, kesesuaian data dengan keupayaan untuk melakukan bahaya fizikal; sistem robotik menyelesaikan tugas dengan cara yang tidak dapat dijangkakan sebelumnya; dan robot semakin kabur garis antara orang dan instrumen. "

Proses perundangan sangat lambat, sementara teknologi, sebaliknya, membuat tergesa-gesa eksponensial.

Kejahatan juga boleh menjadi serius. Pemaju Belanda Jeffry van der Goot harus membela dirinya - dan Twitterbotnya - ketika polis mengetuk pintunya, bertanya tentang ancaman kematian yang dihantar dari akaun Twitternya. Kemudian ada Random Darknet Shopper; bot membeli-belah dengan peruntukan mingguan $ 100 dalam Bitcoin untuk membuat pembelian di Darknet untuk pameran seni. Pegawai Sweden tidak geli ketika membeli ekstasi, yang dipamerkan oleh artis itu. ( Meskipun, untuk mendukung ekspresi artistik, mereka tidak merampas ubat-ubatan tersebut sehingga pameran berakhir. )

Dalam kedua kes ini, pihak berwajib melakukan apa yang mereka dapat dalam undang-undang, tetapi akhirnya mengampuni pemilik manusia kerana mereka tidak melakukan kejahatan secara eksplisit atau langsung. Tetapi bagaimana ia dapat diterjemahkan ketika manusia melepaskan AI dengan niat jahat?

Realiti ironisnya adalah bahawa kita sedang meneroka cara-cara kita dapat mengatur mesin autonomi kita. Dan di luar kemampuan kita yang boleh dipersoalkan untuk menanamkan etika ke dalamnya, kita sering bingung dengan tingkah laku umum mereka sahaja. Semasa membincangkan kaedah di sebalik rangkaian neural mereka, jurutera perisian Google Alexander Mordvintsev mendedahkan, "... walaupun ini adalah alat yang sangat berguna berdasarkan kaedah matematik yang terkenal, kami sebenarnya sedikit mengerti mengapa model tertentu berfungsi dan yang lain tidak."

Bolehkah kita mengikuti?

Semua perkara yang dipertimbangkan, proses perundangan sangat lambat, sementara teknologi, sebaliknya, mempercepat eksponensial. Seperti yang dijelaskan oleh Vivek Wadhwa dari Singularity University, "undang-undang tidak dapat dipatuhi kerana ... undang-undang pada dasarnya adalah etika yang dikodifikasikan. Bahawa kita mengembangkan konsensus sebagai masyarakat tentang apa yang baik dan mana yang buruk dan kemudian menjadi apa yang betul dan apa yang salah, dan kemudian menjadi apa yang sah dan apa yang haram. Itulah cara kemajuannya. Pada kebanyakan teknologi tersebut, kami belum memutuskan mana yang baik atau buruk. "

Sekiranya undang-undang berjaya, kita mungkin akan menuliskan azab kita sendiri. Semua itu membincangkan robot mengambil alih dunia? Mungkin mereka hanya jaywalk secara beramai-ramai sehingga kita memenjarakan sebilangan besar bangsa kita sehingga kita menjadi minoriti dalam makhluk autonomi. Rakan sekerja.