Британский словарь английского языка Collins назвал аббревиатуру AI (ИИ, «искусственный интеллект») словом 2023 года. Частота употребления этого словосочетания в обществе возрастает с пугающей скоростью. Но многих пугает не только скорость, но и само словосочетание. Подготовили подборку интересных аспектов взаимодействия человека и машины.
Сверхдоверие и здравый смысл
При автоматизации снижается общее количество ошибок, но растет их число среди допущенных человеком. На это обратила внимание компания Deloitte еще в 1990 году. Идеальная для рутинных операций, автоматизация становится опасной, если слишком на нее полагаться. Когда умственная нагрузка снижается, понимание происходящего теряется.
За примерами не нужно далеко ходить: каждый хотя бы однажды доверял умной машине больше, чем себе. Даже когда полученная информация противоречила опыту, знаниям, чувствам.
Например, в автомобиле, когда голос навигатора говорит, что через триста метров надо повернуть направо, мы покорно поворачиваем, зная, что прямая дорога короче. Или когда почтовый клиент указывает на пунктуационные ошибки или неправильную форму слов, мы исправляем, хотя выученные нами же правила говорят совсем иное. А когда фитнес-трекер показывает 8 000 шагов вместо 10 000, мы идем еще пару километров, хотя организм кричит, что ему хватит.
Эффект Элизы
Однажды в научное сообщество подселили бота, работающего на ChatGPT. И всего через месяц участники стали общаться только с ним, а не друг с другом. Почему люди выбрали бота? Ответы были весьма неожиданными: вплоть до признания, что с некоторыми вопросами они не пошли бы даже к психотерапевту.
Что-то подобное пытались создать еще в 1965 году. Джозеф Вейценбаум разработал машину, создающую в диалоге с человеком иллюзию эмоциональной привязанности. «Элиза» (имя этого чат-бота) искала в тексте запроса ключевые слова и использовала их в своем ответе.
Фрагмент диалога между человеком и машиной
Человек. Мужчины все одинаковые.
Компьютер. В ЧЕМ?
Человек. Они постоянно нас чем-то достают.
Компьютер. ВЫ МОЖЕТЕ ПРИВЕСТИ КОНКРЕТНЫЙ ПРИМЕР?
Человек. Ну, мой парень заставил меня прийти сюда.
Компьютер. ТВОЙ ПАРЕНЬ ЗАСТАВИЛ ТЕБЯ ПРИЙТИ СЮДА?
Человек. Он говорит, что я бóльшую часть времени я нахожусь в депрессии.
Компьютер. МНЕ ЖАЛЬ СЛЫШАТЬ, ЧТО У ВАС ДЕПРЕССИЯ
Человек. Это правда. Я несчастна.
Компьютер. …
Полной неожиданностью стал факт эмоциональной связи между человеком и роботом: участники эксперимента рассказывали «Элизе» о самых разных личных проблемах. Удивительно, но когда Вейценбаум раскрывал им алгоритмы машины, эмоциональная связь сохранялась.
«Элиза» наглядно показала, что симуляции интеллекта достаточно, чтобы ввести людей в заблуждение, а осознанный диалог возможен и тогда, когда сознание есть только у одного участника. Ученый дал этому явлению название — «Эффект Элизы». Он предположил, что таким «бредомышлением» (когда один бредит, а другой наделяет его слова смыслом), человек будет страдать и в цифровую эпоху. Кажется, он был не так уж и неправ.
Из книги «От „Энигмы“ до ChatGPT».
Бумажная книга Электронная книга
Генеративные состязательные сети (GAN)
Дипфейки базируются на технологии, называемой генеративными состязательными сетями. Как следует из названия, GAN — это пара «состязательных» нейронных сетей глубокого обучения.
1. Первая сеть, генератор, пытается создать что-то, что выглядит реалистично (скажем, синтезированное изображение собаки), основываясь на миллионах изображений собак.
2. Вторая сеть, дискриминатор (сеть-детектив), сравнивает синтезированное изображение собаки из первой сети с подлинными изображениями собаки и определяет, является ли выход генератора подлинным или фальшивым.
3. Основываясь на обратной связи от дискриминатора, генератор переобучается так, чтобы в следующий раз обмануть дискриминатор. Он самокорректируется, минимизируя «функцию потерь», то есть различия между сгенерированным и реальным изображением.
4. Затем переобучается и дискриминатор, и ему становится легче распознавать фейки — «функция потерь» максимизируется.
Из книги «ИИ-2041».
Бумажная книга Электронная книга
В бизнесе
Совершенно не понимая в программировании, сегодня можно создать собственный, подстроенный под себя мир дополненной реальности. Платформы разработки с нулевым кодом — графические интерфейсы, с помощью которых любой пользователь (даже без технического образования) может создавать уникальные приложения, — резко повышают производительность труда.
Благодаря им ваши сотрудники смогут генерировать большие объемы контента, необходимого для персонализации потребительского опыта. Те же платформы помогут самим клиентам разрабатывать и кастомизировать приложения, используя собственный опыт.
Сервис Amazon Sumerian позволяет создавать приложения виртуальной, дополненной и трехмерной реальности без опыта работы с языками программирования или 3D-графикой. Любой пользователь сервиса Sumerian сумеет создать виртуальную среду с эффектом погруженности, заполнить ее 3D-объектами и анимированными персонажами и предложить уникальный опыт, например занятие в классе или экскурсию по зданию. Благодаря таким инструментам и сотрудники, и клиенты организации задействуют экспертное знание и получают персональный полезный опыт.
Из книги «Душа машины».
Бумажная книга Электронная книга
Этика и логика, «угу» и «ах»
Поначалу обработка машиной естественного языка впечатляла, но обнаружились ограничения. ИИ хорошо понимал только элементарные и короткие предложения. По человеческим меркам искусственный интеллект был младенцем, а если говорить на языке науки, ему не хватало данных.
Искусственный интеллект на практике
Но он быстро растет. Прогресс виден на примере записи в парикмахерскую по телефону: технология ведет себя почти по-человечески. Для этого инженеры запрограммировали свойственные нашей речи междометия. Машина вставляет в разговор «эм-м», «ах» и «угу», когда сочтет это уместным.
Компаниям, использующим ИИ, следует подумать и об этических вопросах. На реальных данных машины учатся тем же особенностям и отклонениям, которые свойственны людям. Microsoft убедилась в этом на горьком опыте, когда их чат-бот в превратился в расиста и агрессора, подражая другим пользователям.
Робот не всегда выдает понятные результаты. Его мыслительная цепочка неизвестна. Если алгоритмы показывают вам рекламу Walmart, а не Target, это никому не вредит. Но когда ИИ принимает решение о хирургической операции или судебном приговоре, надо обязательно понимать его логику.
Из книги «Искусственный интеллект на практике».