Global Look Press
Кoмпaнии Google и OpenAI учeныx сoвмeстнo с uc Бeркли и Стэнфoрдскoгo унивeрситeтa, чтoбы сфoрмирoвaть пять прaктичeскиe прoблeмы, кoтoрыe связaны с рaзрaбoтки машин, имеющих искусственный интеллект. Технические детали работы представлены в статье ArXiv.orgа простой примерами описал проблему в блоге Google один из соавторов исследования, Крис это будет трудно.
Как отмечается в публикации, до сих пор много дискуссий об опасности искусственного интеллекта носили спекулятивный характер. Совместное исследование компаний и университетов позволило описать конкретные проблемы, которые необходимо решить в разработке систем искусственного интеллекта.
Первый описанных проблем называется «Избегание негативных побочных эффектов» заключается в том, что ИИ может выполнять различные вредоносные действия, чтобы достичь поставленных проблем. Так что, робот-уборщик может разбить вазу, чтобы ускорить процесс уборки.
Вторая проблема касается возможных мошенников робота с ИИ. Например, как ленивый человек, тот же робот-уборщик может просто прикрыть мусор, а не убирать его. Вероятно, что в данном примере речь идет, среди прочего, пыли, загнанной под ковер.
Третья проблема затрагивает вопросы по AI-от обратной связи с человеком, для успешного выполнения задачи. Так что, если уборщик получит рекомендацию на человека во время работы, ему нужно воспользоваться этим, без много дополнительных вопросов.
Четвертая проблема связана с об опасности, которую могут представлять экспериментальные действия AI. Например, робот-уборщик может испытывать различные способы мокрой очистки, но он, безусловно, не должны пытаться уничтожить гнезда влажный mop.
Наконец, последние проблемы связано с изменением среды использования робота. Так что, робот, приученный работы на предприятии, может быть опасным в условиях офиса.
Как отмечает это будет трудно, сообщество исследователей в области машинного обучения уже обращает внимание на большинство описанных проблем, но для их решения нужно сделать еще много работы.