Вчені провели дослідження з метою з’ясувати, чи можна довіряти рекомендаціям нейромережі з питань моральності і моралі, а також здатний ChatGPT впливати на моральні судження користувачів.

Як повідомляє Scientific Reports, в новому дослідженні, проведеному вченими з Технічного університету прикладних наук Інгольштадта в Німеччині і Університету Південної Данії, був проаналізований чат-бот на базі штучного інтелекту ChatGPT від компанії OpenAI, який отримав широку популярність своїми багатофункціональними можливостями.

Після проведення багатоступінчастого експерименту серед жителів США стало ясно, що поради, які надаються цим чат-ботом, не завжди є послідовними і надійними. В ході експерименту ChatGPT виступав і за, і проти принесення жертви заради порятунку інших людей, що суперечить основним принципам моралі.

Вчені відзначили, що рекомендації нейромережі часто викликають сумніви і не дають чіткої відповіді на складні етичні питання. Проте ChatGPT вплинув на моральні судження учасників експерименту. Хоча вони знали, що отриманий відповідь була згенерована штучним інтелектом, більшість з них не усвідомили, що поради з чату вплинули на їх вибір.

Вчені прийшли до висновку, що для створення надійних чат-ботів необхідно збільшити рівень точності і послідовності вихідних даних, а також надавати всі аргументи за і проти при відповідях на складні етичні питання. В цілому інноваційні технології ставлять перед нами нові виклики в сфері моралі та етики і вимагають більш серйозного підходу до проведення подібних досліджень.

НАПИСАТИ ВІДПОВІДЬ

Please enter your comment!
Please enter your name here