Google начинает разработку кнопке «большой красный», что может остановить искусственный интеллект в экстренных случаях

Извeстнo, чтo испoльзoвaниe искусствeннoгo интeллeктa в нaстoящee врeмя лучший спoсoб aвтoмaтизирoвaть цeлый ряд слoжныx зaдaч, включaя мaркирoвку миллиoны изoбрaжeний в Интeрнeтe, или сoздaниe рoбoтoв, сaмoстoятeльнoгo выбoрa свoиx зaпaсoв в тoй или инoй ситуaции. Группa рaзрaбoтчикoв и ученых с головокружительной быстротой, создание новых, совершенствование и усложнять существующие алгоритмы систем искусственного интеллекта. Все это означает, что пора задуматься о том, что вы должны сделать, если система искусственного интеллекта, вышел из-под контроля и начинают действовать в ущерб другим.

Подразделение компании под названием Google Deepmind, вместе со специалистами из Института будущего человечества (будущее человечества Институт, foh-пульта), проведено исследование проблемы прекращения деятельности систем искусственного интеллекта в случае их неисправности. По результатам этих обследований, единственным надежным решением в данном случае является кнопка «большой красный», что полностью прерывает активность системы искусственного интеллекта.

На основе этих научных исследований, проведенных в 2013 году. В прошлых исследованиях мы использовали простую систему искусственного интеллекта, обученных справляться с игрой в Тетрис. Через некоторое время, этот алгоритм вполне самостоятельно понял, что когда уровень игры поднимается выше его способности, он должен только пауза и он не пропадет.

Этот вид машины искусно придуманные и большинство из них безвредны, но это прекрасно согласуется с предположениями, сделанными специалистами Института будущего человечества. Ник Бостром (ник Бостром), основатель этого института, в то время, написал книгу «Суперинтеллект /Суперинтеллект», который является своеобразным предупреждением человечеству. Это предупреждение, что когда искусственный интеллект появится возможность бесконтрольного и неограниченного самообучения, он быстро развивается до такой степени, что во много раз превышает интеллектуальный уровень человечества. Это событие было впервые описано в 1958 году, ученый-математик Станислав Улам (stanislaw Улам) и это событие называется «Сингулярность».

Разработанные учеными, термин «прекращение охраны» устанавливается в чистке компьютера Тип предохранителя оборудование, которое реализуется в случае доли искусственный интеллект угрозой для окружающих. Но, в некоторых случаях система искусственного интеллекта будет иметь времени, чтобы развиться до уровня, когда он может эффективно противодействовать активации страховщика, и, по мнению компании Google Deepmind и foh не нужно обманывать, как это часто успешные люди делают.

Для того, чтобы реализовать все вышеперечисленное, специалисты, которые разработали систему искусственного интеллекта, должен установить «правила прекращения», вызвал механизм, который позволит временно или навсегда изменить поведение субъекта (ов) насильственным путем». Другими словами, это своего рода сигнал, такие как ключевые слова, вы должны сделать автомобиль думаю, что пора прекратить. Но машинный интеллект, что развитые выше определенного уровня, вы сможете противостоять этому призывают, и следующий шаг будет следующую команду (скрипт, сайта или что-то подобное) со стороны, которая должна быть машина, чтобы поверить, что она уже внутренне согласилась с первым порывом. Другими словами, это способ, чтобы обойти автоматические или программа перестала принимать команды от людей.

Исследователи отмечают, что сигнал об остановке деятельности системы искусственного интеллекта необходимо удалить только люди, которые владеют этими системами. Все другие люди должны быть лишены возможности их использовать. И реализация должна быть простой, как полагают исследователи, это может быть система дистанционного управления с кнопка один «аварийный красный».

Но такая защита не будет эффективной при определенных условиях. Если развитие на уровне системы искусственного интеллекта превысит определенный порог, то время будет упущено и система сможет рассчитать все возможные сценарии, удалить «нарушить правила» из кода.

В заключение следует отметить, что исследование, проведенное компанией Google Deepmind и Озвучивает довольно обобщенное, так как свет до сих пор нет единой компьютерной архитектуры, предназначен для универсального искусственного интеллекта. Но, эта архитектура, несомненно, появятся в ближайшем будущем и разработчикам необходимо учитывать все эти нюансы по установке набор необходимого оборудования и программного обеспечения предохранителей.

Комментирование и размещение ссылок запрещено.

Комментарии закрыты.