Подобно 3 законам робототехники от Айзека Азимова Google создали 7 правил использования искусственного интеллекта.
Искусственный интеллект — сверхмощный, наводящий ужас на обывателей, которые, услышав о нем, представляют как минимум порабощение роботами, или захват планеты сверхразумом.
Конечно же, на самом деле это не так. И мы с Вами понимаем, что в любом случае преступление, если и будет совершено, то с помощью искусственного интеллекта человеком, а не по воле самого ИИ. И для того чтобы в будущем избежать подобных инцидентов, специалисты Google создали свод правил работы с проектами, использующими подобную технологию.
7 правил работы с искусственным интеллектом:
- Искусственный интеллект должен приносить пользу обществу, когда вероятность положительного исхода от его применения превышает вероятность вреда от него;
- ИИ должен исключать вероятность предвзятости или дискриминации (по расовому, религиозному, национальному, половому и др. признакам);
- ИИ должен соответствовать принципам безопасности и проверяться согласно этим же принципам;
- Управлять искусственным интеллектом всегда будет человек, соответственно, ИИ всегда должен быть подотчетным человеку, вероятность хотя бы частично принимаемого самостоятельно решения должна быть исключена;
- ИИ должен всегда соблюдать принцип конфиденциальность данных;
- Для искусственного интеллекта всегда должны соблюдаться научные принципы и стандарты;
- Проекты с использованием ИИ должны быть изменяемы и масштабируемы для того, что бы соблюдение всех принципов было возможно.
Почему в Google задумались о создании правил работы с ИИ?
Всему виной недавний инцидент с забастовкой специалистов компании. Тогда сотрудники Google отказались работать над проектом Maven — совместным детищем Пентагон и Google. Свои действия бастующие объяснили нежеланием создавать раззработку, которая может стать оружием следующего поколения. И если бы проект был бы осуществлен, то это было бы прямым нарушением первого пункта списка правил.
Создание правил работы с искусственным интеллектом это закономерное развитие событий и необходимое решение, ведь создание сверхмощной, обучаемой и многофункциональной технологии всегда связано с определенным риском. Потому Google оставили за собой право на предотвращение или остановку и запрет на использование технологии в случае, если будет нарушен или потенциально нарушен один из пунктов свода правил.