Почему сверхразумные ИИ не будут уничтожать людей в ближайшее время

Автор: Roger Morrison
Дата создания: 1 Сентябрь 2021
Дата обновления: 21 Июнь 2024
Anonim
Искусственного интеллекта нет. Александр Каплан о том, почему машины не станут умнее человека.
Видео: Искусственного интеллекта нет. Александр Каплан о том, почему машины не станут умнее человека.

Содержание


Источник: Willyambradberry / Dreamstime.com

вынос:

Несмотря на некоторые великие научно-фантастические идеи, которые он вдохновил, эксперты объясняют, что ИИ, вероятно, не будет угрожать нам напрямую с точки зрения умственного превосходства.

Если вы обращаете внимание на то, о чем говорят люди в технологическом пространстве, вы, возможно, слышали некоторые версии проблем, с которыми сталкиваются Элон Маск, Билл Гейтс и другие о сверхинтеллектуальных технологиях искусственного интеллекта - хотя последние отчеты показывают, что Гейтс немного остыл на всем этом материале Кассандры есть все еще большое беспокойство и рассуждение позади этого.

Вопросов предостаточно: станут ли роботы умнее людей? Возьмет ли ИИ нашу работу и нашу жизнь? Начнут ли технологии контролировать людей, и приведут ли проблемы с неправильным использованием ИИ к насилию и разрушениям?

Для многих экспертов ответом является решительное «нет», основанное на реальных способах, которыми мы развиваем современные технологии. Большинство согласится с тем, что нам нужны этические, объяснимые структуры для управления технологиями искусственного интеллекта и ML, но они не согласны с тем, что повелители роботов - это определенный результат.


Давайте посмотрим на некоторые дебаты вокруг суперинтеллекта и выясним, почему многие технологи уверены, что люди все еще будут держать поводья через пару сотен лет.

Люди берут на себя инициативу

Когда вы смотрите на сообщения о проблемах ИИ, одно имя, которое встречается довольно часто, это Грэди Буч. В начале тысячелетия Буч стал пионером языка унифицированного моделирования (UML) и работал над ключевыми технологиями для IBM.

Доклад Теда Буча иллюстрирует его оптимизм в отношении типов искусственного интеллекта, которые мы привыкли считать научной фантастикой.

Во-первых, он утверждает, что человеческое обучение будет влиять на этику и нормы функционирования систем ИИ.

«Если я хочу создать искусственного интеллектуального помощника по правовым вопросам, я научу его некоторому правовому своду, но в то же время смешиваю с ним чувство милосердия и справедливости, которое является частью этого закона», - говорит Буч. «В научных терминах это то, что мы называем наземной истиной, и вот важный момент: поэтому, производя эти машины, мы учим их ощущению наших ценностей. С этой целью я доверяю искусственному интеллекту то же самое, если не больше, как человека, который хорошо обучен ». (Чтобы узнать больше о будущем (и прошлом) ИИ, ознакомьтесь с« Мышление машин: дебаты по искусственному интеллекту ».)


Нет ошибок, нет стресса - ваше пошаговое руководство по созданию изменяющего жизнь программного обеспечения без разрушения вашей жизни

Вы не можете улучшить свои навыки программирования, когда никто не заботится о качестве программного обеспечения.

Позже в разговоре Буч приводит еще один совершенно другой аргумент, почему нам не нужно бояться поглощения технологиями.

«(Существующая угроза человечеству со стороны технологий) должна быть связана с суперинтеллектом», - говорит Буч. «Это должно было бы господствовать над всем нашим миром. Это материал Скайнета из фильма «Терминатор», в котором у нас была суперинтеллект, управляющий человеческой волей, который руководил каждым устройством, которое было в каждом уголке мира. С практической точки зрения, этого не произойдет. Мы не строим ИИ, которые контролируют погоду, управляют приливами, командуют нами капризными, хаотичными людьми. Более того, если бы существовал такой искусственный интеллект, ему пришлось бы конкурировать с человеческими экономиками и, таким образом, конкурировать за ресурсы с нами ... в конце концов (не говорите Сири), мы всегда можем отключить их ».

Наш мозг, наши тела

Еще один важный аргумент в пользу превосходства человеческого познания над технологиями связан с изучением человеческого мозга.

Если вы зайдете на YouTube и послушаете покойного известного инженера Марвина Мински, одного из первых пионеров ML и примера Рэя Курцвейла и других современных гуру искусственного интеллекта, вы можете услышать, как он говорит о человеческом мозге. Минский подчеркивает, что настоящий человеческий интеллект - это не один мощный суперкомпьютер, а сотни различных компьютеров, связанных между собой сложными способами. ИИ, объясняет он, может копировать некоторые из этих машин, но далеко не так близко к репликации всех из них.

Многим экспертам в области технологий ИИ никогда не сможет по-настоящему имитировать сложность человеческого мозга, и поэтому всегда будет менее мощным.

«ИИ, как правило, предназначены не для выживания, а для решения очень специфических и личностно-ориентированных проблем, таких как игра в шахматы», - писал Люк Клаустр, доктор философии. в конце прошлого года «Таким образом, они не могут даже адаптироваться к небольшим изменениям в своей среде, не перепрограммируя их, в то время как люди действительно легко управляют неточностью или изменяют правила».

AI и интуиция

Есть также следственный аргумент, который опирается на то, что вы могли бы назвать «проблемой пересекающейся охраны» - он излагает пределы того, что может делать искусственный интеллект. ИИ и МЛ хороши в получении информации из разнообразного пула данных, но они не очень хороши в интуиции, которой люди известны. Итак, другими словами, если вы наняли компьютер в качестве перекрестного охранника, у вас могли бы быть некоторые функциональные возможности - но у вас могли бы быть некоторые довольно опасные пробелы - с которыми вы бы не доверяли своим детям! (Подробнее о возможностях ИИ для человеческого мышления см. Может ли творчество быть реализовано в ИИ?)

Таким образом, компьютерные программы не могут понять наши человеческие причуды и индивидуальные особенности в том, как мы общаемся и как мы живем - так что это еще одно ключевое ограничение.

Более подробно о том, почему проблемы суперинтеллекта могут быть преувеличены, в прошлогодней статье Кевина Келли, посвященной Wired, приводятся некоторые предположения, которые должны быть верны, чтобы ИИ действительно вступил во владение любым практическим способом. К ним относятся следующие:

  • Этот искусственный интеллект уже превосходит человеческое познание
  • Этот интеллект может быть расширен без ограничений
  • Этот супер интеллект может решить большинство проблем, с которыми сталкиваются люди

Прочитав статью, вы увидите, что все эти допущения взорваны и обработаны, чтобы снова продемонстрировать, почему человеческое познание такое особенное.

Дело не в том, что технология не станет мощной - она ​​будет. Это вопрос всех различных измерений, которые необходимо освоить, чтобы сделать ИИ более могущественным, чем люди. Люди развивались миллионы и миллионы лет - искусственный интеллект существует уже около 20 лет, и, хотя он добился огромных успехов, люди по-прежнему имеют преимущество и, вероятно, будут существовать вечно.

Если вы перечитаете некоторые из этих ссылок и посмотрите, что говорят люди, то нас больше всего должны беспокоить сами мы. У людей есть огромный потенциал злоупотреблять технологиями - на самом деле, многие из нас сказали бы, что мы уже злоупотребляем многими технологиями, которые у нас есть. Так что, возможно, это действительно лучшее место, где можно выразить свое беспокойство и свои действия, когда дело доходит до создания этического ИИ.