Профессиональная опасность: ловушка автоматизации

Автор: Roger Morrison
Дата создания: 28 Сентябрь 2021
Дата обновления: 21 Июнь 2024
Anonim
ЭТО САМАЯ ЧИТЕРСКАЯ ЛОВУШКА В МАЙНКРАФТ!
Видео: ЭТО САМАЯ ЧИТЕРСКАЯ ЛОВУШКА В МАЙНКРАФТ!

Содержание


Источник: Artinspiring / Dreamstime.com

вынос:

Чтобы автоматизация работала с человечеством и за него, а не против него, нам нужны гарантии и информированные люди, уполномоченные останавливать или исправлять системную ошибку.

"Человеку свойственно ошибаться; для того, чтобы по-настоящему запутаться, нужен компьютер ». Уильям Э. Воган сделал это наблюдение еще в 1969 году. Предоставление контроля автоматизированной системе влечет за собой возможность неправильной работы системы и причинения серьезного вреда перед проверкой.

Автоматизация не нова, но она становится все более распространенной благодаря интеграции цифровых и физических систем. Преимуществом автоматизации в масштабах является высокая эффективность. Но недостатком использования системы «поставь и забудь» является то, что кто-то может не установить ее правильно.

С системой, которая просто проходит без вмешательства и без возможности остановки машины, вы можете иметь разрушительные последствия. Соответственно, технология может создать ситуацию, описанную в «Ученике чародея», когда то, что облегчает жизнь, фактически выходит из-под контроля.


Уволен машиной

Автоматизация без вмешательства - это то, что привело к тому, что в прошлом году технический работник в США оказался без работы без причины. Ибрагим Диалло заметил, что его карточки проверки безопасности не работают на работе, и обнаружил, что это потому, что он остался без работы. «Машина уволила меня» - это название, которое он дал своей расширенной публикации в блоге об этом событии.

В конечном счете, причиной прекращения Диалло была не какая-то оценка алгоритма, которая определяла, кого следует исключить. Проблема не в системе, а в человеческой ошибке. В этом случае все это было автоматическим ответом на неспособность человека вставить информацию о продлении контракта Diallo.

Дело не в том, что машина решила, что его должны уволить за что-то конкретное. Он просто выполнил шаги, запрограммированные в нем для кого-то, чей статус оказался больше не занятым. Как он поясняет в комментариях, на самом деле это не ИИ, а «автоматизированный сценарий». (Чтобы узнать, как ИИ может помочь (а не навредить) в бизнесе, посмотрите, что ИИ может сделать для предприятия.)


Автоматизация и нарушение работы

Этот вид эффекта не совсем то, что люди видят при описании замечательных преимуществ, которые мы можем ожидать в автоматизированном будущем. Обычный оптимистичный взгляд на смену рабочих мест, поскольку задачи выполняются автоматизацией, задания будут переопределяться, а не завершаться автоматизированными системами. Но реальность такова, что некоторые рабочие места будут упразднены, и люди, которые их держали, не обязательно смогут беспрепятственно перейти к новой карьере в значительной степени автоматизированной отрасли.

Срыв работы - один из самых незначительных рисков, которые Элон Маск предвидел для повышения ИИ, хотя его собственное видение воздействия на рабочие места гораздо более пессимистично, чем у Фицджеральда. По мнению Маск, ИИ нуждается в строгом регулировании, потому что он представляет «фундаментальный, экзистенциальный риск для человеческой цивилизации».

Нет ошибок, нет стресса - ваше пошаговое руководство по созданию изменяющего жизнь программного обеспечения без разрушения вашей жизни

Вы не можете улучшить свои навыки программирования, когда никто не заботится о качестве программного обеспечения.

Приложения от бытовой электроники

Несмотря на собственные технические полномочия Маск, некоторые эксперты в этой области, такие как Родни Брукс, который был директором-основателем Лаборатории компьютерных наук и искусственного интеллекта MIT и соучредителем iRobot и Rethink Robotics, говорят, что Маск ошибается насчет угрозы ИИ и робототехники. на самом деле работать.

В интервью TechCrunch Брукс указал, что безрассудно призывать к регулированию, не доработав технологию до того момента, когда мы сможем точно определить, что должно регулироваться. Он бросил вызов Маску: «Скажи мне, какое поведение ты хочешь изменить, Элон?»

Брукс признал, что роботы приведут к перемещению рабочих мест. Но он также считает, что в промышленности можно сменить парадигму на потребительскую электронику.

Он сказал это в интервью TechCrunch: «У нас есть традиция в производстве оборудования, которое имеет ужасные пользовательские интерфейсы, и это сложно, и вы должны проходить курсы, тогда как в бытовой электронике мы сделали машины, которые мы используем, обучать людей как их использовать. »

Именно это, по его словам, должно стать целью изменить наше отношение к «промышленному оборудованию и другим видам оборудования, чтобы заставить машины учить людей их использованию».

Восстановление контроля

То, что предлагает Брукс, может направить нас к решению проблемы человеческой ошибки, которая запускает автоматизированный процесс, который, кажется, выходит из-под контроля. Возвращаясь к несчастному случаю Микки в «Ученике чародея», проблема связана с человеком, который активирует систему, но не имеет реального способа связаться с ней, чтобы заставить ее остановиться или изменить направление.

Но если интерфейс сделан по типу бытовой электроники, а не по традиционным промышленным моделям, он может буквально вернуть контроль в руки человека. Чтобы быть по-настоящему эффективным, интерфейс должен быть не только доступным, но и спроектированным, чтобы держать людей в курсе того, что происходит, предоставлять данные об обновлениях, которые он получил, и о том, какие действия он предпринял.

Как это может работать

В случае случайного увольнения Диалло это будет означать, что автоматизированная система не просто заблокирует его из системы, а затем сообщит его рекрутеру, что он был уволен. Сначала признается, что продление контракта не было внесено в ожидаемую дату. Прежде чем начать действия по прекращению, он предложит руководителю и рекрутеру обновленную информацию об отсутствии обновления и о последствиях, которые последуют в течение дня, если не будет предпринято никаких действий.

Такой тип оповещения позволил бы людям принимать обоснованные решения о том, следует ли продолжать автоматизацию или вмешиваться, чтобы исправить человеческую ошибку, которая была первоначальной причиной проблемы. Но люди также должны внести свой вклад, ответить на предупреждение и принять надлежащие меры. Другими словами, ответ на вопрос, который Брукс задал о поведении, относится к людям; они должны быть менее пассивными перед лицом автоматизации. (Подробнее о том, как люди и машины могут работать совместно, см. Раздел «Направление человеческого элемента: политика, процедура и процесс».)

Как писал Диалло в разделе комментариев своего блога, причиной этого стало то, что люди отказались идти против машины:

Еще одна вещь, которая упускается из виду, это то, что, хотя все знали, что это была человеческая ошибка, которая вызвала ее, и что это была просто ошибка, они решили следовать за ней. Это все равно что поставить знак «разрешено курить» в больнице, и люди уважают его, а не используют здравый смысл.

Соответственно, политика, которую мы должны принять, чтобы автоматизация работала с человечеством, а не против него, была двоякой: на стороне машины нам нужны интерфейсы, которые доступны и информативны, а на стороне человека - люди уполномочен определить, когда что-то не так, и вмешаться, чтобы исправить это.