Искусственный интеллект начинает манипулировать мнением людей

4433

Исследования показали, что цифровые технологии уже стали "умнее" среднестатистического человека.

Искусственный интеллект начинает манипулировать мнением людей Фото: Максим Морозов

В настоящий момент человечество находится только на заре цифровой эры, но все чаще люди стали задумываться об опасности, которая грозит населению из-за неконтролируемого развития технологий, сообщает inbusiness.kz.

Швейцарские ученые провели исследование, которое показало, что искусственный интеллект уже научился манипулировать мнением людей. И чем больше объем знаний о человеке есть в распоряжении ИИ, тем сильнее выражается способность цифровых технологий влиять на эмоционально-психологическое состояние и на поступки людей.

По информации ресурса hibiny.ru, это серьезно упростит задачу для сферы рекламы и средств массовой информации. Много пользы ИИ может принести рекламным компаниям и СМИ. Но в то же время машинные технологии вполне могут оказаться на службе "темной стороны", и тогда эти преимущества смогут начать работать уже над другими, совсем не созидательными задачами.

О возможностях развития искусственного интеллекта может говорить и исследование Максима Лотта, который для проверки интеллекта нейросетей заставил их пройти тест на IQ. Трансформировав картинки тестов в описания, ученый дважды прогнал через стандартные тесты несколько нейросетей. В результате лучший результат со 101 баллом показала Claude-3. Нейросеть ChatGPT-4 показала второй результат, набрав 85 баллов, а более старая версия Claude-2 замкнула "тройку победителей", показав результат 82 балла.

В настоящий момент показатели Claude уже превышают средний показатель человеческого IQ, и, как говорится в материале на портале vgtimes.ru, ученые и эксперты в области цифровых технологий не зря опасаются слишком быстрого прогресса нейросетей в самообучении.

Telegram
ПОДПИСЫВАЙТЕСЬ НА НАС В TELEGRAM Узнавайте о новостях первыми
Подписаться
Подпишитесь на наш Telegram канал! Узнавайте о новостях первыми
Подписаться