6 причин, почему не стоит слепо доверять искусственному интеллекту
1. ИИ запрограммирован создавать правдоподобные, а не правдивые ответы
Искусственный интеллект вполне может чего‑то не знать. Но он никогда не сознается в этом.
ИИ способен нести в ответ на любой вопрос запредельные глупости, но с абсолютной уверенностью в собственной правоте. Если же его уличить во лжи, он согласится с вами, поправится и продолжит генерировать текст, будто ничего и не случилось.
ИИ‑чатботы располагают ограниченной информацией: они знают только то, что изложено в текстах, на которых их обучали. Но при этом они запрограммированы отвечать в любом случае, даже если не знают правильного варианта. Поэтому ChatGPT и его аналоги регулярно несут чушь с умным видом.
Не забывайте проверять сведения, полученные от чат‑бота. Мало ли о чём он думал, когда писал ответ.
2. ИИ может спорить с вами, даже когда вы правы
Ситуации, когда ИИ не знает ответ и поэтому придумывает небылицы, — это ещё полбеды. Ещё хуже, когда вы ловите его на лжи, а он не исправляется и продолжает упорствовать — просто потому, что был обучен на неверных сведениях.
Более того, ИИ может намеренно искажать информацию, чтобы вывести разговор в русло, которое нейросети кажется более правильным. Это приводит к различным забавным результатам.
Один пользователь описал ситуацию, как он спросил у бота Bing ChatGPT, когда будет сеанс фильма «Аватар 2» в кинотеатрах поблизости от его дома. В ответ тот начал уверять его, что фильм ещё не вышел. Когда пользователь попытался переубедить ИИ, тот стал упорствовать, говорить, что на дворе всё ещё 2022 год и до премьеры 10 месяцев.
Bing предположил, что собеседник ошибается, если думает, что уже наступил 2023‑й, и посоветовал проверить дату на своём телефоне. Когда пользователь сообщил, что уже это сделал, тот заявил, что у него на смартфоне временные настройки сбиты вирусом и вообще человек слишком много спорит и должен перестать быть таким напористым.
Пользователю так и не удалось убедить ИИ, что «Аватар 2» уже вышел и что 2023 год расположен после 2022‑го.
Несмотря на название «искусственный интеллект», чат‑боты не разумны и генерируют ответы, компилируя тексты, которые они читали до этого. Так, Open AI ChatGPT был обучен на сведениях до 2021 года, а Bing ChatGPT — до 2022‑го. Поэтому они будут располагать только той информацией, которая была актуальна на момент их обучения.
3. ИИ ограничивает ваши творческие способности
Многие авторы контента, художники и дизайнеры сегодня активно применяют искусственный интеллект. Однако если использовать его всё время, есть риск, что ваша «творческая мышца» атрофируется и вам будет труднее создавать собственные идеи.
Когда чат‑боты на базе ИИ генерируют ответ, люди часто просто копируют и вставляют его, не прилагая усилий к его осмыслению. Такой подход совершенно не стимулирует креативное мышление.
Видите ли, ИИ способен только копировать то, что до него создали люди, просто вольно компилируя и перемешивая то, что он увидел. Он не умеет создавать действительно оригинальные произведения.
Если вы станете сильно зависимы от ИИ, то будете повторять уже существущие идеи и концепции, вместо того чтобы создать собственные.
4. ИИ не способен давать обратную связь
Попробуйте заставить ChatGPT написать какую‑нибудь дипломную или курсовую работу. Возможно, что у него получится вполне неплохой текст, который будет не стыдно показать людям.
Но если вы попросите ИИ, чтобы он указал источники предоставленной им информации, то обнаружите, что их не существует. Названия исследований, на которые ссылается ChatGPT, и имена учёных, их создавших, запросто могут оказаться вымышленными, а предоставляемые им ссылки на статьи в интернете никуда не будут вести.
ИИ не способен объяснить, откуда он берёт ту или иную информацию, потому что он запрограммирован генерировать тексты на основе других текстов, а не осмыслять то, что он там понаписал. Поэтому, даже если он отвечает правильно, то объяснить, откуда ему известны эти сведения, искусственный интеллект не в состоянии.
5. ИИ могут использовать злоумышленники
Несмотря на все преимущества ИИ, он также может быть использован людьми с недобрыми намерениями.
Примером такого злоупотребления является создание так называемых дипфейков. Эта технология позволяет генерировать чрезвычайно реалистичные видео или аудиозаписи, в которых искусственно созданные изображения людей говорят или делают то, что на самом деле они не говорили или не делали. Это может быть использовано для обмана жертв, создания фальшивых новостей или даже для шантажа и вымогательства.
Значительная часть наработок в сфере ИИ находится в открытом доступе и позволяет любому получить доступ к таким технологиям, как распознавание изображений и лиц. А текстовые модели вроде Open AI ChatGPT могут применяться для троллинга, травли в соцсетях или распространения правдоподобно выглядящих, но на самом деле лживых сведений.
Наконец, злоумышленники могут подсовывать ИИ неправильные данные для обучения, и в дальнейшем он сам будет транслировать их, вводя пользователей в заблуждение.
6. ИИ не может заменить человеческое суждение
Полностью доверять искусственному интеллекту также не следует при принятии решений, которые основываются на эмоциях и личных ощущениях и предпочтениях. Это связано с тем, что ИИ не в состоянии учесть человеческие эмоции, контекст и нематериальные аспекты, которые необходимы для понимания и интерпретации многих понятий.
Например, если вы попросите ИИ выбрать между двумя книгами, он порекомендует ту, у которой более высокий рейтинг, но не сможет учесть ваш личный вкус, предпочтения в чтении или цель, для которой вам нужна та или иная работа.
А рецензент‑человек может дать более детальный и индивидуальный обзор произведения, оценивая его литературную ценность, соответствие интересам читателя и другие субъективные факторы, которые ИИ не способен измерить цифрами.
Читайте также 🧐