Засновник онлайн-енциклопедії “Вікіпедія” Джиммі Вейлз спробував залучити ChatGPT для допомоги редакторам, проте цей експеримент завершився невдачею. Штучний інтелект вигадав фейкові факти, посилався на неіснуючі джерела і порушив базові стандарти спільноти.
Ідея полягала в тому, щоб використовувати ШІ як інструмент перевірки чернеток статей, що могло б пришвидшити роботу волонтерів. Проте після завантаження тестового тексту ChatGPT заявив, що він повністю відповідає правилам “Вікіпедії”. Насправді виявилося, що чат-бот надавав вигадану інформацію та спотворював вимоги, пише Web Pro News.
“ChatGPT послався на правила, яких насправді не існує, вигадував джерела і навіть радив підтверджувати факти пресрелізами, що у “Вікіпедії” категорично заборонено”, – зазначили редактори ресурсу.
ЧИТАЙТЕ ТАКОЖ: Як з’явилася назва ChatGPT: історія запуску
Реакція спільноти була різкою. Редактори наголосили, що системи, схильні до так званих “галюцинацій”, руйнують ключовий принцип енциклопедії – перевірюваність фактів. Вони підкреслили, що подібні помилки підривають довіру мільйонів користувачів.
Цей інцидент не став першим негативним досвідом “Вікіпедії” у співпраці з ШІ. Раніше Wikimedia Foundation зупинила тестування автоматично створених коротких переказів статей. Крім того, у правила внесли пункт про швидке видалення низькоякісного машинного контенту, який прозвали “AI slop”.
У підсумку ідею Джиммі Вейлса відкинули. Редактори зробили висновок, що на нинішньому етапі штучний інтелект не лише не допомагає, а й створює додаткові проблеми. Виправлення його помилок вимагає більше часу, ніж написання якісної статті з нуля.
Чат-бот під управлінням штучного інтелекту Copilot став доступним у Telegram. Його розробила корпорація Microsoft. Там бота назвали “другим пілотом” для Telegram. Copilot створено на базі GPT.