Кто владеет информацией,
владеет миром

Безопасность техники - прежде всего

Опубликовано 16.05.2016 автором Николай Иванов в разделе комментариев 5

прогресс техника безопасность
Безопасность техники - прежде всего

В начале XXI века многим людям кажется, что машинный интеллект (искусственный интеллект, artificial intelligence) по возможностям равен человеческому. Это не так, хотя машины уже могут собирать узлы автомобилей на конвейере, строить, ассистировать в хирургических операциях и даже торговать на бирже. Поразительно, но всё перечисленное создавалось без цели превзойти человеческий интеллект — речь идёт о копировании роботами тех действий человека, которые поддаются алгоритмизации.

Сильный искусственный интеллект — это удел фантастики. Ни одна машина пока что не умеет думать и действовать как человек. Поэтому в контур управления сложными системами обязательно включают человека. Новейшие медицинские системы типа хирургических роботов или интерфейсов «мозг-машина» лишь воспроизводят действия врача — специалиста в своей предметной области. Например, хирургический робот лишь разъединяет и сшивает ткани, но он не может оценить состояние пациента или выбрать оптимальный доступ и приём операции.

Аналитики Global Consulting (Испания) считают, что бездумное внедрение автоматизации может привести к крупным техногенным катастрофам. Поэтому надо заранее оценивать связанные с этим риски.

Подготовка операторов сложных систем обязательно включает обучение действиям в аварийных ситуациях, это касается атомной энергетики, химической промышленности, железнодорожного, авиационного, морского транспорта и многих других отраслей.

Наличие в контуре управления оператора это одновременно гарантия спасительного вмешательства в предаварийной ситуации, и источник потенциальных рисков.

Хотя человеческий интеллект призван обеспечивать работу сложнейших систем, именно несостоятельность операторов служит причиной большинства аварий и катастроф.

 

Что безопаснее: искусственный или естественный интеллект?

Существует немало свидетельств того, как в критической ситуации оператор самоустранялся от управление вверенной ему системой.

В 1990-е годы на сортировочной станции Бекасово Киевского направления Московской железной дороги оператор увидел, что одна из стрелок не перевелась, и состав, накатываемый маневровым тепловозом, неизбежно должен был потерпеть крушение. Реакция была парадоксальной: он закрыл лицо ладонями, произнёс «Кошмар!» и уставился в потолок. Авария была предотвращена лишь по счастливому стечению обстоятельств — рабочий, увидевший происходящее, привел в действие экстренный тормоз, открыв тормозную магистраль.

Во время аварии на ЧАЭС и в Фукусиме операторы энергетической установки совершили сразу несколько ошибочных, заведомо неверных действий, приведших к разгерметизации реактора и заражению территории.

По сходному сценарию в 2014 году развивался «блэкаут» в Нью-Йорке: видя на контрольном щите все признаки аварии, диспетчер впал в ступорозное состояние и молча смотрел, как один за другим отключаются по автоматике районы города.

 

Советы специалистов

Эти и многие другие трагические истории объединяет то, что оператор в критический момент самоустранялся от управления, либо совершал заведомо неверные действия.

Специалисты Японского института производственного обслуживания (JIPM, Japan Institute of Plant Mantenance) выделяют следующие три уровня защиты от подобных ситуаций:

1. Ответственное отношение к выбору операторов. Кандидат на должность оператора должен быть умелым, образованным, благонадёжным и стрессоустойчивым. Поэтому в Японии широко практикуется тестирование, проверка на полиграфе, моделирование аварийных ситуаций на стендах и тренажёрах.

2. Наличие типовых планов действия в аварийных ситуациях. Типовые варианты ситуаций, ведущих к авариям и катастрофам, должны быть составлены заранее, и точно так же заранее должны быть предусмотрены оперативные планы реагирования.

Специалисты JIPM пишут: «Надо исходить из того, что в аварийной ситуации времени на размышления не будет».

3. Внедрение систем автоматического управления в аварийных ситуациях. Техника должна оценивать адекватность поведения оператора, и если оператор совершает заведомо неверные, опасные действия, она должна принудительно исключать его из контура управления и передавать контроль резервной смене.

Эти правила в буквальном смысле написаны кровью, они были составлены после аварии на АЭС в Фукусиме. Фирма TEPCO является одним из инициаторов нового национального стандарта Японии на контраварийное управление в промышленности.



Рейтинг:   5.00,  Голосов: 5
Поделиться
Всего комментариев к статье: 5
Комментарии не премодерируются и их можно оставлять анонимно
(без названия)
ИИ (Искуственный Интеллект) написал 17.05.2016 05:32
Даже самообучающиеся роботы принимают решение в рамках заложенной в них модели действий, в том числе и на принятие решений. На большее человеческий мозг сегодня не способен. Не может он сконструировать робота подобного или превосходящего себя. Даже адепты Нового мирового порядка не считают возможным исключить человека-оператора из системы управления, только это должен быть "функциональный человек" компетентный только в своей области и за пределы ее не выходящий. Но вся беда в том, что нештатные ситуации ничего о том не знают и выходят сами собой за область компетенции компетентного биоробота. Спасибо автору за поднятую проблему!
Re: Называть рабочих - пьяными роботами. Что за фи гня?
!Q!Q!Q написал 16.05.2016 23:24
Таки это - "гав-нолики"!
Называть рабочих - пьяными роботами. Что за фи гня?
аааа написал 16.05.2016 21:15
И кто такие ГАВНОЛИКИ ?
(без названия)
А.Г. написал 16.05.2016 08:19
Робот (искусственный интел) не имет ответственности.
Но к нему можно попасть во власть.
Да и оператор с какой-нибудь чудовищной властью-силой,способной уничтожить регион - это тоже ничего хорошего (кранты, скорее всего)
(без названия)
!QQ!!u написал 16.05.2016 01:33
"Сильный искусственный интеллект — это удел фантастики. Ни одна машина пока что не умеет думать и действовать как человек."
- Волку пить не умеет... Таки Я не видел ни одногО пьяного робота, акромя биологических!
Опрос
  • Как часто вы перерабатываете?:
Результаты
Интернет-ТВ
Новости
Анонсы
Добавить свой материал
Наша блогосфера
Авторы
 
              
Рейтинг@Mail.ru       читайте нас также: pda | twitter | rss