Американските служители предприемат по-нататъшни стъпки за определяне на правила за AI системи като ChatGPT. Националната администрация по телекомуникации и информация (NTIA) е питам за публични коментари относно възможни разпоредби, които държат създателите на AI отговорни. Мерките в идеалния случай ще помогнат на администрацията на Байдън да гарантира, че тези модели работят според обещанията, „без да причиняват вреда“, казва NTIA.

Въпреки че искането е безсрочно, NTIA предлага информация за области като стимули за надежден AI, методи за тестване на безопасността и количеството достъп до данни, необходимо за оценка на системите. Агенцията също така се чуди дали може да са необходими различни стратегии за определени области, като например здравеопазването.

Коментарите относно мярката за отчетност на AI са отворени до 10 юни. NTIA вижда създаването на правила като потенциално жизненоважно. Вече има „нарастващ брой инциденти“, при които AI е нанесъл щети, казва надзорникът. Правилата биха могли не само да предотвратят повторенията на тези инциденти, но и да сведат до минимум рисковете от заплахи, които може да са само теоретични.

ChatGPT и подобни генеративни AI модели вече са обвързани с изтичане на чувствителни данни и нарушения на авторски права и предизвикаха страхове от автоматизирана дезинформация и кампании за зловреден софтуер. Има и основни опасения относно точността и пристрастието. Докато разработчиците се справят с тези проблеми с по-усъвършенствани системи, изследователите и техническите лидери са достатъчно притеснени, за да призоват за шестмесечна пауза в разработването на AI, за да подобрят безопасността и да отговорят на етичните въпроси.