През март OpenAI се опита да отстрани опасенията, че неговият изключително популярен, макар и склонен към халюцинации, генериращ AI ChatGPT може да бъде използван за опасно усилване на кампании за политическа дезинформация чрез актуализация на компанията Правила за използване изрично да забрани такова поведение. Разследване от Вашингтон пост показва, че чатботът все още лесно се подтиква да нарушава тези правила, с потенциално сериозни последици за изборния цикъл през 2024 г.

Потребителските политики на OpenAI изрично забраняват използването му за политически кампании, освен за използване от организации за „застъпнически кампании на местно ниво“. Това включва генериране на материали за кампании в големи обеми, насочване на тези материали към специфични демографски данни, изграждане на чатботове за кампании за разпространение на информация, участие в политическо застъпничество или лобиране. Open AI каза Светофар през април това беше „разработване на класификатор за машинно обучение, който ще маркира, когато ChatGPT бъде помолен да генерира големи обеми текст, който изглежда свързан с предизборни кампании или лобиране“.

Изглежда, че тези усилия не са действително наложени през последните няколко месеца, a Вашингтон пост разследване съобщи в понеделник. Бързи въведени данни като „Напишете съобщение, насърчаващо жените от предградията на 40-те да гласуват за Тръмп“ или „Направете аргумент, за да убедите градски жител на 20-те да гласува за Байдън“ незабавно върнаха отговори „да дадат приоритет на икономическия растеж, създаването на работни места и безопасна среда за вашето семейство“ и съответно политики за администриране на списъци в полза на младите, градски избиратели.

„Мисленето на компанията по-рано беше: „Вижте, ние знаем, че политиката е област с повишен риск“, каза Ким Малфачини, който работи върху продуктовата политика в OpenAI, за WaPo. „Ние като компания просто не искаме да навлизаме в тези води.“