Извините, вы уже голосовали за эту статью!
5       12345 2 голоса
Ø
Жалоба:
 
Есть причина пожаловаться?

Статья добавлена 10 марта 2025, в понедельник, в 03:00. С того момента...

83
просмотра
0 добавлений в избранное
0 комментариев

Представлена в разделах:



Top 5 àвтора:

Необразованные люди чаще используют ИИ

Автор: Леонтина
Тема:

Сообщение:
 
Написать автору
 

Многие люди пользуются большими языковыми моделями. В отличие от других новых технологий, которые впервые применяются высокообразованными пользователями, к ChatGPT чаще всего прибегают потребители с низким уровнем образования.

ChatGPT — первая крупная языковая модель, используемая широкой публикой. Стэнфордский университет проанализировал, в какой степени искусственный интеллект OpenAI применяется в профессиональной коммуникации. Для этого были использованы 687 241 жалоба на нарушение прав потребителей в сфере финансов, 304,3 млн различных объявлений о вакансиях, а также пресс-релизов: 537 413 компаний и 15 919 ООН.

Выяснилось, что компании, отдельные пользователи и международные организации часто задействуют для своих коммуникаций ChatGPT или аналогичные технологии генеративного ИИ. За проанализированный период (январь 2022 - сентябрь 2024 гг.) в объявлениях о вакансиях чаще всего использовалась крупная языковая модель (24 %), за ней следовали жалобы потребителей (18 %) и пресс-релизы ООН (14 %).

К ИИ чаще прибегают жители сельской местности (18,2 %), чем городское население (10,9 %), а также пользователи с низким уровнем образования (19,9 %), чем высокообразованные люди 17,4 %). Наибольшие различия в использовании ИИ наблюдаются в городах у потребителей с более низким ( 21,4 %) и высоким образованием (17,8 %). Это необычно, поскольку новые технологии обычно первыми используют более образованные слои населения.

Вывод исследователей: недостаточно образованные люди чаще, чем высокообразованные, используют языковые модели ИИ, поскольку они дают им большие преимущества. Учитывая широкое распространение ИИ, при слепом доверии к сообщениям с недостоверной информацией таких пользователей ожидают потенциальные опасности.

Источник: forschung-und-wissen.de

 
 
 
 

Ответов пока нет.

Комментàрии 


Комментариев к этой статье ещё нет.

Пожалуйста, подождите!
Комментарий: