
Атака ботів: «Вікіпедію» заполонили фейкові статті, написані ІІ
Відкрита енциклопедія «Вікіпедія» зазнала справжньої атаки інтернет-тролів, які почали заповнювати ресурс ІІ-контентом. Щоб навести порядок на сайті, довелося навіть сформувати групу волонтерів.
З недавніх пір редактори та користувачі ресурсу стали помічати численні уривки, написані неприродним стилем. Теорія втручання ботів підтвердилася, коли ChatGPT відтворив ті ж самі тексти. Група ентузіастів викликалася провести «прибирання» на сайті, щоб видалити весь ІІ-контент.
Деякі з нас помітили поширеність неприродного стилю письма, в якому явно простежувалися ознаки того, що він був згенерований штучним інтелектом, і нам вдалося відтворити подібні «стилі» за допомогою ChatGPT. Виявивши кілька поширених фраз, згенерованих ІІ, ми змогли швидко визначити найбільш кричущі приклади згенерованих статей.
Як приклад можна навести статтю на «Вікіпедії» про османську фортецю «Амберлісихар» 15-го століття, пише видання Techspot. Матеріал надзвичайно детально описує пам'ятку та місце її знаходження, але ось заковика: стаття — вигадка, а фортеця насправді не існує.
Незважаючи на старання редакторів, їхня ініціатива нагадує боротьбу з вітряками. Навіть після правок зловмисники жартома продовжують змінювати статті, вставляючи неправдиву інформацію, згенеровану ІІ.
Нагадаємо, що нещодавно один з користувачів попросив ChatGPT імітувати голос шахрая з Індії, який намагається викрасти дані. Нейромережа успішно впоралася.
-
Нова модель ChatGPT змогла за годину написати код для докторської дисертації
-
OpenAI запускає розширеного голосового помічника ChatGPT. У мережі вже показали, як він імітує п'яну мову
-
Голосовий помічник ChatGPT прикинувся телефонним шахраєм і попросив дані банківської карти — відео
-
Глава OpenAI зізнався, що приймає ChatGPT за реальну людину
-
Хакери спробували зламати творців ChatGPT, використовуючи ChatGPT