Апрель
Пн 1 8 15 22 29
Вт 2 9 16 23 30
Ср 3 10 17 24  
Чт 4 11 18 25  
Пт 5 12 19 26  
Сб 6 13 20 27  
Вс 7 14 21 28  






Google сформулировала пять принципов безопасности робототехники

Компании Google и OpenAI совместно с Калифорнийским университетом в Беркли и Стэнфордским университетом сформулировали пять практических проблем, которые необходимо учитывать разработчикам искусственного интеллекта. Препринт их статьи доступен на ресурсе arXiv.org.

Как пишет сотрудник Google и один из авторов публикации Крис Ола (Chris Olah) в корпоративном блоге, хотя связанные с ИИ риски привлекают большое общественное внимание, дискуссии по их поводу обычно слишком гипотетические и спекулятивные. Статья призвана конкретизировать потенциальные опасности, которые необходимо учитывать при разработках в этом направлении.

Среди проблем, которые должны учитывать разработчики систем ИИ для практического применения, авторы работы выделяют следующие:

избегание нежелательных побочных эффектов (например, робот может разбить вазу, если это ускорит процесс уборки);

избегание жульничества (тот же робот может просто прикрыть мусор, а не убрать его);

гибкая потребность в надзоре (например, если робот может посоветоваться с человеком при выполнении задачи, он не должен надоедать вопросами);

безопасное обучение (упомянутому роботу-уборщику не стоит экспериментировать с протиркой розеток мокрой тряпкой);

устойчивость к смене деятельности (например, уборка в цехе металлообработки и химической лаборатории принципиально отличается).

Среди возможных путей решения исследователи называют использование симуляций в обучении, ограничение пространства деятельности роботов и человеческий надзор, однако ни один из них не представляет окончательного решения проблемы. По мнению специалистов Google, обеспечить заданную работу систем машинного обучения могут только ответственные, открытые и междисциплинарные усилия разработчиков.

Олег Лищук

Arcprojects.ru © Из-за рубежа, события в мире и в России.