Первые годы после появления на рынке искусственный интеллект (ИИ) представлялся чем-то магическим: машины начали писать за человека тексты, создавать программы, рисовать картинки и даже пробовали "решать" этические вопросы. Однако постепенно эйфория сменилась разочарованием: вместо обещанного чуда мы получили набор сырых инструментов, которые на длинной дистанции все чаще ошибаются и требуют постоянного контроля со стороны человека.
Наглядным примером стала дискуссия вокруг промпт-инжиниринга. Глава Сбербанка Герман Греф в недавнем интервью рассказал, что качество работы нейросети можно "улучшить", если обращаться к ней как к человеку и использовать вполне биологические стимулы: например, пообещать миллиард долларов в качестве поощрения "на лечение матери" или пригрозить расстрелом (что, кстати, не работает с момента выхода модели ChatGPT 4.0).
В то же время в СМИ все чаще появляются вызывающие тревогу материалы о том, как подростки и психически неустойчивые люди после долгого общения с чат-ботом окончательно теряют связь с реальностью и кончают жизнь самоубийством. Одним из последних событий стал иск к генеральному директору OpenAI Сэму Альтману от родителей американского 16-летнего подростка, покончившего жизнь самоубийством после того, как ChatGPT подробно описал ему способы суицида.
Таким образом, вновь встает вопрос: кто несет ответственность за поведение “умных” машин и должны ли мы регулировать общение с чат-ботами?
Не оправдались и корпоративные мечты о тотальной автоматизации рабочих процессов. Компании, которые год назад громко рапортовали о замене людей на нейросети, теперь массово нанимают специалистов по перепроверке сделанной ИИ работы: художники исправляют несуразные иллюстрации, писатели переписывают сухие и пустые машинные тексты, а программисты латают баги в написанном ИИ коде.
В частности, в Австралии один из крупнейших банков уволил десятки сотрудников поддержки и внедрил голосового ИИ бота. Результат оказался плачевным: ИИ не оправдал надежды, нагрузка на оставшихся работников возросла, а руководство вынуждено было извиниться и нанять сотрудников обратно.
При этом парадокс ситуации заключается в том, что исправлять ошибки ИИ чаще всего обходится дороже и дольше, чем сразу поручить работу профессионалу.
Не менее наглядно проявляются сбои ИИ в медиа: все чаще выпускающие редакторы, прибегают к помощи нейросетевых инструментов, однако современные модели ИИ склонны "галлюцинировать" и придумывать факты, цитаты и даже персонажей, опираясь на разрозненные куски датасета. Как следствие — сгенерированный нейрослоп, заменяющий "человеческие" тексты, не выдерживает никакой критики.
Наконец, провалился и эксперимент по внедрению нейросетевых технологий в образовательный процесс. Недавно в Пермском государственном университете составление расписания доверили системе на базе ИИ — в результате студенты и преподаватели получили "окна" между парами по 10-12 часов, лекции по субботам в 20:25 и лабораторные занятия в необорудованных аудиториях. После шквала жалоб ректор признал первый опыт "не вполне удачным" и распорядился переписать расписание вручную.
Все эти истории складываются в цельную картину: генеративные модели — полезный инструмент, способный ускорять рутинные процессы и помогать в поиске идей, но они не заменяют специалистов и не снимают с человека ответственности за результат.
Романтизация ИИ, мечты о цифровой сингулярности и скорой замене человека алгоритмами на поверку оказались столь же наивными и тщетными, как и технофобия, предрекающая неминуемую катастрофу человечества в случае внедрения ИИ в повседневную жизнь. Обе позиции мешают трезвому диалогу о реальных возможностях и ограничениях передовых технологий XXI века.
Задача ближайших лет — выработать прагматичное отношение к ИИ как важному вспомогательному инструменту, применение которого должно быть четко регламентировано. Лишь такое отношение — без придыхания и истерик — позволит встроить технологии в жизнь так, чтобы они работали во благо всего человечества.