Navigation

Действительно ли искусственный интеллект настолько разумен, как мы думаем?

София — первый в мире робот-гуманоид (гиноид) с искусственным интеллектом. Её создали в Гонконге в 2015 году ученые компании Hanson Robotics, она способна имитировать 62 человеческие эмоции. Keystone / Ritchie B. Tongo

Компьютеры все чаще принимают за нас важные решения. Должны ли мы идти у них на поводу? Команда из швейцарского исследовательского института Idiap наглядно демонстрирует, что искусственный интеллект и наше нынешнее о нем представление являются по большей части иллюзией, навеянной научной фантастикой.

Этот контент был опубликован 25 февраля 2022 года - 07:00

Редактор русскоязычной версии Надежда Капоне.

Способны ли машины мыслить? Этим вопросом задался английский математик Алан Тьюринг (Alan Turing) в своей статье «Вычислительные машины и разум»Внешняя ссылка (Computing Machinery and Intelligence), опубликованной еще в 1950 году в философском журнале Mind. Его работа определила концепцию и заложила основу современной теории искусственного интеллекта (ИИ). Формулировка данной задачи не оставалась статичной, она развивалась. В одной из версий ученый предложил заменить вопрос «Думают ли машины?» вопросом «Могут ли машины делать то, что можем делать мы, люди, в качестве мыслящих созданий»? 

Чтобы ответить на поставленный вопрос, А. Тьюринг предложил сыграть в «игру-имитацию», в которой задействованы три участника: игрок А — мужчина, игрок В — женщина и игрок С, который может быть любого пола и выступает в качестве ведущего. Ведущий С не видит двух других игроков и может общаться с ними только посредством письменных сообщений. Задавая вопросы игрокам А и В, ведущий С пытается определить, кто из них мужчина, а кто женщина. Задача игрока А, мужчины, — запутать игрока С, чтобы он сделал неправильный вывод. В то же время задача игрока В, женщины, состоит в том, чтобы помочь игроку С вынести верное суждение. Теперь представьте, что игрока А-мужчину заменили компьютером. А. Тьюринг указывал, что, если игрок С не может отличить компьютера от человека, то это значит, что компьютер может мыслить, и его следует считать разумным, поскольку он способен копировать когнитивные способности человека. 

В самой последней версии этого теста речь идет о комитете экспертов, который задаёт вопросы компьютеру, а задача компьютера состоит в том, чтобы заставить значительную часть членов этого комитета поверить, что он на самом деле не компьютер, а человек. Сегодня так называемый «Тест Тьюринга» повсеместно используют для определения уровня машинного интеллекта. Стандартная современная формулировка теста выглядит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает, с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор».

Не искусственный и не разумный

«На данный момент не существует ни одной системы искусственного интеллекта, которая бы прошла тест Тьюринга», — подчеркивает Эрве Бурлар (Hervé Bourlard), директор расположенного в городе Мартини (Martigny, кантон Вале) частного Научно-исследовательского института IdiapВнешняя ссылка (Institut d’intelligence artificielle perceptive), занимающегося изучением когнитивных технологий, искусственного интеллекта и технологий взаимодействия человека и машины. Институт сотрудничает с Университетом Женевы и Лозаннским политехом EPFL. В 1970-е годы ученые старались не использовать термин «искусственный интеллект» из-за разных несбывшихся прогнозов и курьезных случаев, с которыми тот ассоциировался.

«У искусственного интеллекта нет разума. Это некорректный термин и лучше говорить о методах машинного обучения», — говорит Эрве Бурлар, директор исследовательского института Idiap. Idiap

Снижение интереса к области ИИ в конечном итоге привело к сокращению финансирования и к сворачиванию многих крупных исследовательских проектов. Термин ИИ вернулся в моду в 1990-х «как часть маркетинговой политики, а также по соображениям рекламного и делового характера», — утверждает Эрве Бурлар, который также является профессором электротехники. «Однако возвращение термина в речевой обиход не сопровождалось каким-либо реальным научным прогрессом, за исключением более совершенных математических моделей, лежавших в основе технологий ИИ», — добавляет он. Он по-прежнему скептически относится к термину «искусственный интеллект» и смыслу, который сегодня вкладывают в это понятие.

Ученый утверждает, что «искусственного интеллекта» не существует, поскольку ни одна такая система не содержит в себе ни малейшего признака человеческого интеллекта. Даже двух- или трехмесячный младенец может делать то, чего никогда не сможет машина с ИИ. Взять хотя бы стакан воды на столе. Ребенок прекрасно сознаёт, что, если стакан перевернуть, то вода выльется, и он станет пустым. «Вот почему младенцам так нравится опрокидывать стаканы. Ни одна машина в мире не способна уяснить себе эту разницу», — говорит Эрве Бурлар. Это мнение ученого, как и пример со стаканом, оказываются приложимыми и в отношении обычного здравого смысла — то есть способности человека рационально рассуждать на основе самоочевидных принципов разума. Этой способности машины не смогут и, по словам Э. Бурлара, никогда в будущем не смогут имитировать.

Фундамент формирования искусственного интеллекта

Однако во многих отраслях экономики ИИ уже зарекомендовал себя вполне положительно, системы на его основе все более активно принимают участие в процессах принятия рутинных решений в таких областях, как кадровые ресурсы, страхование, банковское кредитование. Анализируя поведение людей во Всемирной паутине, машины могут «знать», кто мы такие в качестве пользователей и каковы наши в этом смысле предпочтения. Затем рекомендательные алгоритмы отфильтровывают менее значимую информацию и предлагают нам для просмотра в социальных сетях фильмы, новости или одежду, которая может нам понравиться. На этой основе соцсети зарабатывают себе рекламные деньги. 

Но это по-прежнему не делает искусственный интеллект разумным, говорит Э. Бурлар. Он предпочитает поэтому использовать термин «машинное обучение». Он говорит, что есть три фактора, которые делают ИИ действительно мощным инструментом: вычислительные возможности, математическое моделирование интеллектуальных систем, а также обширные и всеобъемлющие базы данных. Постоянное увеличение мощности и производительности компьютеров наряду с оцифровкой огромных массивов данных уже позволили значительно улучшить математические модели, лежащие в основе ИИ. Интернет с его безграничными источниками цифровой информации довершил начатое, еще больше расширив возможности систем «искусственного интеллекта».

Посмотрите, как сотрудники научно-исследовательского института Idiap демонстрируют публике работу и возможности пользовательских ИИ-приложений:

На данный момент эксперты Idiap подготовили уже целый ряд интерактивных презентаций, в ходе которых они постарались продемонстрировать публике, насколько важны большие массивы данных для систем ИИ. Данная экспозиция будет представлена вниманию общественности с 1 апреля 2022 года в Musée de la mainВнешняя ссылка в Лозанне. Например, гости музея смогут воочию увидеть, как технология искусственного интеллекта, применяемая в фотокамерах наших смартфонов, способная значительно улучшать качество изображений с низким разрешением или, наоборот, ухудшать его, в зависимости от использованных тех или иных наборов критериев для их обработки.

На самом деле это очень сложный процесс. Для него требуется большой объем достоверных и точно аннотированных или «помеченных» человеком наборов данных, на основе которых компьютер способен «обучаться». «Мы имеем дело не с чем-то существующим самостоятельно, а с системой хранения и обработки накопленных массивов данных», — говорит Михаэль Либлинг (Michael Liebling), руководитель Лаборатории биовизуализации вычислений (Computational Bioimaging Group), существующей при институте Idiap.

Это означает, что технологии ИИ не являются абсолютно надежными. Размеры обрабатываемых массивов данных являются критерием предела возможностей машин. А это, по мнению Михаэля Либлинга, должно заставить нас задуматься о том, где кроется реальная опасность. «Действительно ли опасность заключается в том, что некая машина из мира научной фантастики начнет владеть миром? Или же она кроется в том, как мы распределяем и обрабатываем данные? Я считаю, что угроза заключается именно в том, как мы управляем данными, а не в самих машинах, которые их используют», — говорит он.

«Требуйте от системы объяснения»

Такие технологические гиганты, как Google и Facebook, отлично понимают, что потенциал моделей ИИ зависит от массивов накопленных цифровых данных. И это как раз и составляет научную основу их бизнеса. Но именно этот аспект, наряду с процессами автоматизации некоторых процессов и минимизации участия в них человека, в наибольшей степени и вызывает беспокойство научного сообщества. Бывшего исследователя и эксперта по этике компании Google Тимнит Гебру (Timnit Gebru) даже уволили за критику в адрес становящихся слишком мощными лингвистических моделей, использующих огромные объемы интернет-данных и составляющих основу самой востребованной в мире поисковой системы. 

Недостаток таких моделей на основе машинного обучения заключается в том, что все они не обладают, или, по крайней мере, пока не продемонстрировали нам никаких способностей к логическому мышлению, которыми обладает человек. Компьютер может дать ответ на вопрос, но он не в состоянии объяснить, почему он пришел к такому выводу и это понятно: человек мыслит, а машина приходит к своему выводу «тупым» перебором вариантов. «Необходимо, чтобы существующие модели ИИ были понятными целевой аудитории»,- говорит Андре Фрайтас (André Freitas), возглавляющий в институте Idiap исследовательскую лабораторию обеспечения и регулирования прозрачности ИИ. 

Хорошая новость, считает он, заключается в том, что научное сообщество в сфере искусственного интеллекта, раньше занимавшееся в основном повышением эффективности и точности соответствующих моделей и алгоритмов, теперь стремится разрабатывать этичные, понятные и безопасные модели, в рамках которых реализована в том числе и т.н. объяснительная компонента (элемент архитектуры экспертной системыВнешняя ссылка, который дает объяснение действий данной системы и отвечает на вопрос о том, почему и как данные заключения были сделаны или на каком основании они были отвергнуты). Лаборатория Андре Фрайтаса создает как раз модели искусственного интеллекта, которые способны ответить на вопрос о том, как было получено решение задачи, и какие знания при этом были использованы. А это резко повышает доверие пользователя к полученному результату. 

Например, их модель умеет не только прогнозировать и давать рекомендации о порядке и сроках помещения в реанимацию больных коронавирусом, но и объяснять медицинскому персоналу, на каком основании сделаны эти выводы, а также представлять информацию о пределах возможностей данной модели. «Создавая модели искусственного интеллекта с наличием объяснительной компоненты, мы можем предоставлять пользователям инструментарий для выработки критического взгляда на ее недостатки и достоинства», — говорит А. Фрайтас. Задача в итоге заключается именно в том, чтобы обратить сложные алгоритмы и технический жаргон в нечто понятное и доступное. Требуйте от системы объяснения её действий, если вам придется иметь с ней дело. Такова его вполне практическая рекомендация на каждый день. 

Видимость интеллекта

Искусственный интеллект часто называют основной движущей силой современных технологий. Поэтому закономерно, что работы в этой области вызывают энтузиазм и связаны с ожиданием получения практически значимых результатов. Нейрокомпьютеры, созданные на основе принципов работы естественных нейронных систем, уже хорошо себя зарекомендовали там, где ранее их использование было бы немыслимым. «Поэтому мы решили, что искусственный интеллект может обладать таким же интеллектом, что и мы, и что это поможет нам решить многие наши проблемы», — говорит Лоннеке ван дер Плас (Lonneke van der Plas). 

Она руководит в институте Idiap Лабораторией вычислений, когнитивных и лингвистических способностей. В качестве примера она приводит растущий потенциал такого инструмента, как виртуальный ассистент (программный сервисный агент) на основе ИИ или сервис автоматического перевода. «Их возможности уже поразительны и мы склоняемся к мысли о том, что если компьютеру по силам освоить такую сложную знаковую систему, как язык, то здесь не обошлось без участия и его потенциальных интеллектуальных способностей». 

Такие интеллектуальные персональные программные агенты уже могут имитировать нас, коль скоро их алгоритмы умеют выявлять закономерности в огромных массивах данных. Но при сравнении возможностей виртуального голосового ассистента, активируемого голосом, со способностями обычного ребенка в разговоре, например, о бумажном самолетике, первому, чтобы достичь уровня рассуждений ребенка, пока нынешних объемов данных недостаточно. 

Виртуальному помощнику пока сложно усвоить обычные знания на уровне здравого смысла. «Способность говорить на человеческом языке не означает еще автоматически наличия в высказываемых суждениях того, что называется интеллектом», − говорит Л. Ван дер Плас. В конце концов, как сказал еще 70 лет назад Алан Тьюринг, не стоит пытаться очеловечивать «умную машину», наделяя ее эстетическими свойствами. «Не судите о книге по её обложке».

В соответствии со стандартами JTI

В соответствии со стандартами JTI

Показать больше: Сертификат по нормам JTI для портала SWI swissinfo.ch

Комментарии к этой статье были отключены. Обзор текущих дебатов с нашими журналистами можно найти здесь. Пожалуйста, присоединяйтесь к нам!

Если вы хотите начать разговор на тему, поднятую в этой статье, или хотите сообщить о фактических ошибках, напишите нам по адресу russian@swissinfo.ch.

Поделиться этой историей

Изменить пароль

Вы действительно хотите удалить Ваш аккаунт?