Нелогичные аварии. Почему автопилот попадает в дикие ДТП?

Tesla вновь оказалась в центре скандала. Автопилот спровоцировал еще одно громкое ДТП, причем уже в Москве. Обошлось без жертв. Но специалисты раздумывают, стоит ли впредь доверять искусственному интеллекту.

Поначалу с системами автопилотирования было связано много надежд. Казалось, что еще несколько лет и прогрессивные технологии в корне изменят жизнь автовладельцев. На внедрение автоматизированных систем отводилось от силы лет пять.

Однако наступает уже третье десятилетие нового века, а автомобили так и не могут избавиться от присмотра водителя. Внедрение систем автопилотирования существенно затормозилось, а внедряющие их производители, столкнулись с серьезными проблемами, практически не разрешимыми в ближайшие 15 лет.

Разница мышления

«Автомобили — это не люди, и им трудно понимать человеческую логику, — рассказывает ведущий научный сотрудник института проблем информатики РАН Николай Сомин. — Порой элементарные для нас задачи компьютер не способен решить в принципе».

Искусственный интеллект пока не способен отличить картонную коробку от бетонного блока, пластмассовый шарик от яблока или лист скомканной бумаги от булыжника. Автоматика не умеет сфокусировать внимание на опасном объекте через полупрозрачную преграду или забор.

Компьютер теряется и не узнает местности, если выпал снег, и неправильно прокладывает маршрут, когда строители вдруг начали ремонт дороги. Поэтому он и попадает в нелепые, но очень опасные аварии.

По данным Американского национального института по безопасности на транспорте (NTSB), самая резонансная первая авария электрокара Tesla — когда автомобиль на автопилоте врезался в прицеп грузовика — была вызвана неумением искусственного интеллекта отличить большой белый прицеп от облачка тумана, всплывшего в яркий солнечный день посреди трассы.

После первых аварий Tesla поспешила юридически защитить себя, отказалась от названия Autopilot и придумала ему новое имя Pilot Assist. Теперь это автоматизированная система помощи водителю на трассе, требующая постоянного контроля.

Примерно через каждые 15 минут компьютер просит человека на время вновь вернуться к управлению произвести ряд действий с педалями и рулем, чтобы продемонстрировать компьютеру свою бдительность. Таким образом машина экзаменует своего владельца и старается сделать так, чтобы он не заснул. Однако аварии продолжаются.

Еще одна авария произошла весной этого года в США. Водитель включил автопилот, расслабился и через девять секунд Tesla вновь угодила под прицеп грузовика, приняв его за безобидное облако в небе. С машины срезало крышу, водитель погиб на месте, однако Tesla с автопилотом еще полкилометра проехала как ни в чем не бывало, пока ее не заблокировали попутные машины. Это была уже вторая авария по причине ошибок в распознавании объектов.

Московская августовская авария 2019 года немного отличается от американских, хотя и она укладывается в логику перечисленных происшествий. Водитель, передвигавшийся с детьми, включил систему автоматизированного движения.

Компьютер не смог идентифицировать стоящий на дороге эвакуатор, посчитал его фантомом и врезался в него. Благо платформа была опущена, и опасных последствий удалось избежать. Водитель и дети остались живы, хотя сам электрокар Tesla загорелся и даже взорвался.

Неучи за рулем

«Искусственный интеллект допускает ошибки по одной простой причине: он еще слишком мал и слаб, чтобы полностью понимать явления и процессы в окружающем пространстве, кажущиеся нам элементарными», — рассказывает директор по исследованиям и технологиям Jaguar Land Rover д-р Вольфганг Эппле. Искусственный интеллект строится на работе так называемых электронных нейронных сетей, имитирующих работу нервной системы живых существ.

Нейросети анализируют происходящие события и учатся реагировать наиболее оптимальным способом. Примерно так же ребенок учится ходить. Сначала он ощупывает себя, чтобы понять, что у него есть ноги, затем ползает, а уже потом старается подняться. Проходит немало времени, прежде чем он начнет бегать. Искусственный интеллект ведет себя примерно таким же образом.

«У автопилота есть широкий функционал, камеры, лидары, радары и датчики, однако правильно интерпретировать события он еще не научился, — рассказываетдиректор некоммерческой организации по защите потребителей Consumer Reports, занимающейся изучением поведения автопилота на практике, Джейк Фишер. — Автопилот «близорук», он не понимает многих действий других водителей и ведет себя нелогично, как двухлетний малыш».

Автопилоту нужно учиться и учиться, ежегодно проезжая миллионы километров на разных тестовых машинах и скачивая данные в единый информационный центр, то есть в объединенную программу, обрабатывающую данные с тысяч разных машин. Видимо, минуют десятилетия, пока искусственный интеллект научится жить в мире людей, хотя и в этом у специалистов есть сомнения.

«У машинной логики нет критических оценок своих действий, — продолжает Николай Сомин. — Она не способна, как человек, сомневаться в своих решениях и корректировать действия, исходя их этих сомнений. Внести этот элемент поведения в программу пока трудно для программистов. Они не разгадали еще природы этих сомнений».

Какой же есть выход? Производители видят решение проблемы в отделении потока транспорта с автопилотом от того, что управляется обычными водителями. На скоростных автострадах автоматизированные автомобили должны объединяться в поток, регулирующийся из единого центра.

Тогда удастся исключить непонятную для машины человеческую логику и систематизировать процесс движения. Как утверждается, такой подход позволит снизит риск возникновения пробок и сделает дороги более безопасными, так как исключит многие неожиданности на трассах.

В городах же и на проселочных трассах пока предлагается оставить управление человеку.

Смотрите также:

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *