7 обязательных правил использования искусственного интеллекта от Google

7 правил использования искусственного интеллекта от Google

Подобно 3 законам робототехники от Айзека Азимова Google создали 7 правил использования искусственного интеллекта.

Искусственный интеллект — сверхмощный, наводящий ужас на обывателей, которые, услышав о нем, представляют как минимум порабощение роботами, или захват планеты сверхразумом.

Конечно же, на самом деле это не так. И мы с Вами понимаем, что в любом случае преступление, если и будет совершено, то с помощью искусственного интеллекта человеком, а не по воле самого ИИ. И для того чтобы в будущем избежать подобных инцидентов, специалисты Google создали свод правил работы с проектами, использующими подобную технологию.

7 правил работы с искусственным интеллектом:

  1. Искусственный интеллект должен приносить пользу обществу, когда вероятность положительного исхода от его применения превышает вероятность вреда от него;
  2. ИИ должен исключать вероятность предвзятости или дискриминации (по расовому, религиозному, национальному, половому и др. признакам);
  3. ИИ должен соответствовать принципам безопасности и проверяться согласно этим же принципам;
  4. Управлять искусственным интеллектом всегда будет человек, соответственно, ИИ всегда должен быть подотчетным человеку, вероятность хотя бы частично принимаемого самостоятельно решения должна быть исключена;
  5. ИИ должен всегда соблюдать принцип конфиденциальность данных;
  6. Для искусственного интеллекта всегда должны соблюдаться научные принципы и стандарты;
  7. Проекты с использованием ИИ должны быть изменяемы и масштабируемы для того, что бы соблюдение всех принципов было возможно.

Почему в Google задумались о создании правил работы с ИИ?

Всему виной недавний инцидент с забастовкой специалистов компании. Тогда сотрудники Google отказались работать над проектом Maven — совместным детищем Пентагон и Google. Свои действия бастующие объяснили нежеланием создавать раззработку, которая может стать оружием следующего поколения. И если бы проект был бы осуществлен, то это было бы прямым нарушением первого пункта списка правил.

 

Создание правил работы с искусственным интеллектом это закономерное развитие событий и необходимое решение, ведь создание сверхмощной, обучаемой и многофункциональной технологии всегда связано с определенным риском. Потому Google оставили за собой право на предотвращение или остановку и запрет на использование технологии в случае, если будет нарушен или потенциально нарушен один из пунктов свода правил.

1+
Подписаться на новости

Отправить ответ

Оставьте первый комментарий!

  Subscribe  
Уведомить о