Каролина Парада, руководитель отдела робототехники в Google DeepMind, заявила, что классических законов Азимова недостаточно для безопасного взаимодействия роботов с людьми. Вместо этого её команда разработала «Датасет Азимова» — базу сценариев, где ИИ и люди совместно определяют оптимальные действия для избежания вреда.
Почему старых законов мало?
Роботы не следуют жёстким правилам — они учатся анализировать риски. Например:
- Стакан на краю стола → робот поставит его в центр.
- Предмет на полу → поднимет, чтобы никто не споткнулся.
Датасет включает визуальные примеры потенциально опасных ситуаций и инструкции по их устранению. Это не просто теория — алгоритмы обучаются на реальных инцидентах из разных стран.
Ключевые особенности подхода DeepMind:
Динамическое обновление — список сценариев будет расширяться.
Сочетание ИИ и человеческого контроля — люди проверяют и корректируют данные.
Открытость— датасет доступен для тестирования другими разработчиками.
Азимов заложил основы, но современная робототехника требует более гибкой системы безопасности. DeepMind предлагает адаптивную модель, где ИИ и люди совместно минимизируют риски.
Согласны, что роботам нужны «умные» правила, а не жёсткие законы?