Британский институт стандартов выпустил первый в мире официальный сборник этических норм для создания роботов, приблизив наступление новой эпохи. До этого момента самым близким по смыслу руководством, связанным с роботами, были «Три закона роботехники» из научно-фантастической литературы Айзека Азимова.

Руководство написано довольно сухо — фактически это мануал по безопасности. Несмотря на это, в тексте упомянаются ситуации, отдалённо напоминающие сценарий антиутопического боевика Джеймса Кэмерона. Однако для того чтобы ознакомиться с этикой нового дивного мира, нужно заплатить 158 фунтов (79 фунтов, если вам посчастливилось стать подписчиком Британского института стандартов). К счастью, копия документа оказалась у коллег из The Guardian, которые привели наиболее интересные моменты из морального кодекса: например, про роботов-расистов и опасность эмоционального контакта с машиной. 

Восстание машин: О чём предупреждают авторы этического кодекса роботостроителя. Изображение № 1.

Ответственность за роботов

«Роботы не должны быть созданы полностью или преимущественно для того, чтобы убивать или калечить людей» 

Документ начинается с довольно абстрактных, но в то же время всем понятных этических принципов. Авторы добавляют, что ответственность за роботов всегда несут люди, создавшие их, а не сами машины. Поэтому процесс их создания должен быть организован так, что, если робот взбунтуется и начнёт целенаправленно уничтожать человеческий род, руководствуясь собственными принципами, всегда можно было найти и наказать его создателя.

   

Эмоциональный контакт

Чёткого ответа на то, допустим ли эмоциональный контакт человека с роботом, в документе нет. Но сотрудники института склоняются к тому, что доверяться машине всё-таки не стоит, особенно в случаях, когда роботы сделаны специально для общения с детьми или престарелыми.

Ноэль Шарки, профессор роботизации и исследования искусственного интеллекта в Университете Шеффилда, приводит достаточно неочевидный пример: «Недавно было исследование, в рамках которого в детский сад завезли роботов. Дети их полюбили и по-настоящему привязались к ним. Позже они рассказывали, что роботы оказались в разы познавательнее их домашних питомцев». 

   

Мысли роботов

Свод правил велит разработчикам думать о прозрачности процессов, проходящих в голове робота. Учёные возражают: это один из самых труднореализуемых моментов в роботостроительстве. «Сейчас главная проблема искусственного интеллекта, особенно с системами „глубокого изучения“, — это то, что невозможно узнать, почему они принимают те или иные решения», — объясняет Алан Винфилд, профессор роботизации Университета Западной Англии. 

Технология «глубокого изучения» построена на том, что робот пытается выполнить поставленную задачу, пока не наткнётся на работающий метод. Иногда это происходит после миллиона попыток. Но избранную стратегию зачастую не могут объяснить даже разработчики машины, потому что в конечном итоге она не основана на человеческой логике.

   

Расизм и гомофобия
среди роботов 

Авторы доклада всерьёз опасаются нашествия роботов-сексистов и расистов, предупреждая о возможном «недостатке уважения к культурному разнообразию или плюрализму» среди автоматизированных слуг народа. Обоснования тому есть — достаточно вспомнить радикально настроенного бота Microsoft, который меньше чем за сутки превратился из образцово-показательного миллениала в сторонника Гитлера и Трампа и, соответственно, ненавистника феминисток и мексиканцев. 

«Это уже прослеживается в технологиях, которые используют полицейские», — подтверждает Шарки, ссылаясь на автоматизированные методы сканирования подозрительных лиц в аэропортах, которые, по сути, оказались формой расового профилирования. 

«Системы „глубокого изучения“ буквально используют весь массив данных интернета для обучения. Проблема в том, что эта информация не всегда справедлива или правдива. Получается, что эти системы симпатизируют белым мужчинам средних лет, что очевидно является катастрофой. Так в роботов впитывается человеческая предвзятость, это очень опасно». 

В случае с медицинскими программами существует риск, что системы будут менее охотно диагностировать женщин или представителей этнических меньшинств. Уже существуют примеры того, как программы распознавания голоса хуже понимали женщин, а софт, различающий мимику, с большим трудом распознавал эмоции чернокожих людей.

«Надо, чтобы у роботов был „чёрный ящик“, который в случае чего мы могли бы открыть и изучить, — рассуждает Шарки. — Если робот ведёт себя как расист, то, в отличие от полицейского, мы можем его выключить и убрать с улиц».

   

Зависимость от роботов

Доклад предупреждает, что человечество может оказаться слишком зависимым от роботов. Поэтому в Британском институте стандартов предупреждают, что при создании роботов важно не терять бдительность. «Когда вы работаете с машиной определённое количество времени и она регулярно выдаёт вам правильные ответы, вы начинаете доверять ей и становитесь ленивы. А потом робот вытворяет что-то совершенно глупое», — объясняет Шарки. 

Авторы доклада также упомянули, что уже в скором будущем могут появиться роботы-мошенники, которые «разработают новый или улучшенный план действий с непредвиденными последствиями» или будут принимать юридическую ответственность за поступки их хозяев.

«Использование роботов и автоматизированных технологий — это неотъемлемая часть технологического прогресса. Поэтому необходимо определять и разрешать такие этические проблемы и угрозы, как дегуманизация людей и чрезмерная зависимость от роботов», — подытоживает Дэн Палмер, глава производства Британского института стандартов.

Изображения: Flickr.com/photos/fei_company