В предисловии к этой книге мы задались вопросом: будет ли человек в далеком будущем испытывать нужду учиться больше, понимать глубже, исследовать дальше? Честно говоря, у нас была наивная иллюзия, что можно приблизиться к ответу, не найти его, а хотя бы нащупать направление для дальнейшего исследования. Оказалось, что вся наша работа – это лишь попытка заглянуть в замочную скважину огромного потенциала, стоящим за интеллектуальной машины нового поколения, которая оперирует естественной речью гораздо лучше, чем среднестатистический человек.

В попытке это сделать, нам удалось частично осветить страх человека перед интеллектуальной машиной. Мы заглянули “под капот” логики, которая позволила современному компьютеру обрести цифровую интуицию. В завершение мы попробовали использовать сервисы, такие как ChatGPT, Perplexity.ai, TWEE.com, в повседневном контексте. Рассказ получился динамичным и позитивным, но это не означает, что в нем нет места для скепсиса и опасений. По нашему мнению, эти опасения имеют другой аспект, чем мы изначально думали.

Не потерю контроля следует опасаться, а утрату интеллектуальных функций, которые сделали нас хозяевами планеты. Иными словами, будут ли люди учиться все меньше и меньше по мере того, как машины становятся все умнее? Невольно вспоминается человек из анимационного фильма “ВАЛЛ-И”. Человечество покинуло планету в поисках “лучшей жизни” и претерпело парадоксальную метаморфозу. Творец превратился, если не в паразита, то во что-то, что сложно определить.

В завершении мы рассмотрим феномен предвзятости автоматизации, расскажем, что это такое, и попробуем задать последний вопрос этой книги, ответ на который предлагается найти пытливому читателю самостоятельно.

Предвзятость автоматизации

Так или иначе, каждый из нас сталкивался с этим феноменом. Например, когда управляем автомобилем, услужливый голос Алисы говорит, что через двести метров надо повернуть налево, и мы послушно поворачиваем, хотя знаем, что если ехать прямо, то дорога будет короче. Когда пишем письмо и почтовый клиент указывает на ошибку в расстановке запятых, мы доверяем ему и вносим коррективы, хотя помним правила, которым нас учили, и они говорят совсем иное. Фитнес-трекер, показывающий вместо десяти тысяч шагов всего восемь, подталкивает нас пройти еще пару километров, хотя тело кричит о том, что устало.

Каждый из нас хотя бы раз доверял умной машине больше, чем себе, особенно когда представленная информация противоречит нашему опыту или чувствам. Чаще всего решение принимается в пользу машины, даже если это противоречит здравому смыслу. Вольтер был прав, говоря, что здравый смысл не так уж и распространен.

Еще в 1990 году Делойт1 обратил внимание на это явление, когда автоматизация снижает общий уровень ошибок, но при этом увеличивает их количество среди допущенных человеком. Если автоматика сокращает ошибки в целом, но при этом человек начинает допускать их больше, это может привести к серьезным последствиям, особенно в таких местах как атомные станции.

Автоматизация идеальна для рутинных операций, но опасна, если на нее слишком полагаться. Отдавая рутинные задачи на откуп машинам, мы снижаем умственную нагрузку, что может привести к потере понимания происходящего. Надеяться на то, что мы избежим чрезмерного доверия к автоматизации, было бы наивно. Мы уже полагаемся на навигатор за рулем, на автокорректор при написании текстов и на счетчик калорий в спорте. Возможно, мы не становимся глупее, но точно становимся менее внимательными.

Чрезмерное доверие к алгоритмам может привести к ошибкам из-за бездействия или неправильных действий. Внимание, необходимое для принятия решений и решения проблем, рассеивается, что может стать поводом для возникновения опасных ситуаций.

Если большинство процессов автоматизировано, то возникает последний вопрос: изменилась ли роль человека с появлением все более умных машин?

Список литературы

Footnotes

    1. Automation Bias: What Happens when Trust Goes too Far? // Deloitte United Kingdom [Электронный ресурс]. URL: https://www2.deloitte.com/uk/en/pages/deloitte-analytics/articles/automation-bias.html (дата обращения: 06.07.2023).