Искусственный интеллект может обманывать пользователей

Анна Каплан 10:38, 21 мая 2023
Бояться не надо: нейросети со временем глупеют

Москва, 21 мая — ИА Время Пресс. Ученые выяснили, что искусственный интеллект может обманывать пользователей из-за ИИ-галлюцинаций. Об этом сообщает портал  «Новая наука«.

Речь идет о нашумевшем ChatGPT. Нейросеть обучали с помощью информации из источников в Интернете и обширной базы, объем которой составляет 570 ГБ данных. После запуска алгоритма в работу, ей ограничили доступ в Сеть. Соответственно, те знания, которые она имеет не обновляются, и ответы пользователям она дает основываясь только на имеющихся сведениях. Из-за этого искусственный интеллект может неосознанно обманывать обращающегося.

Также ChatGPT лжет пользователям из-за ИИ-галлюцинаций. Они представляют собой информацию, которая кажется разумной и правдоподобной, но таковой не является. Например, это явление происходит тогда, когда нейросеть предоставляет пользователю данные, которые не загружались в процессе обучения или ответ, не относящийся к теме запроса.

Галлюцинации возникают по нескольким причинам. Во-первых, ИИ не понимает устройства реального мира. Во-вторых, у нее может быть сбой в программном обеспечении. В-третьих, информация, которую запрашивает пользователь, может быть ограничена.

Клиент также может стать причиной галлюцинаций. Он может ввести неточный вопрос, не предоставить полную информацию или предвзято сформировать обращение. Чтобы избавиться от лжи, разработчики ChatGPT посоветовали пользователям перепроверять данные, которые предоставляет нейросеть через другие открытые источники.

2 лайка
Смотрите также