Недавнє дослідження, в якому порівнювалися твіти ( повідомлення в Twitter ), написані людьми, і твіти, створені мовною моделлю GPT-3 від OpenAI, виявило цікаві результати: учасники насилу розрізняли різницю і були ще менш вправні у визначенні дезінформації, коли вона виходила від мовної моделі

Дослідницька група зібрала повідомлення в Twitter, обговорюють різні наукові теми, і виявила, що твіти GPT-3 практично не відрізняються від людського контенту. Метою дослідження було визначити, чи можуть люди відрізнити твіти, написані людиною, від твітів, складених GPT-3. Учасники продемонстрували більш високий рівень довіри до GPT-3, незалежно від точності наданої інформації.

Проте, в дослідженні визнаються деякі обмеження, наприклад, учасники оцінювали твіти поза контекстом і не мали можливості переглядати профілі для оцінки автентичності. В цілому, дослідження проливає світло на необхідність вдосконалення навчальних наборів даних для ефективної боротьби з кампаніями по дезінформації.

НАПИСАТИ ВІДПОВІДЬ

Please enter your comment!
Please enter your name here