тя отговори отчасти с това: „Трябва да имаме принципи и стандарти, ръководни органи и хора, които гласуват за неща и алгоритми, които се проверяват, нещо подобно на FDA [Food and Drug Administration]. Така че за мен това не е толкова просто, колкото създаването на по-разнообразен набор от данни и нещата са фиксирани.“Тя е права. На първо място имаме нужда от регулация. AI е нова игра и се нуждае от правила и рефери. Тя предложи да се нуждаем от еквивалент на FDA за AI. Всъщност както AAA, така и ADPPA призова FTC да действа в тази роля, но вместо представянето на лекарства и одобрението да се обработват от FDA, Big Tech и други трябва да изпратят своите оценки на въздействието на AI на FTC за AI системи. Тези оценки биха били за системи с изкуствен интелект в области с голямо въздействие като жилища, заетост и кредити, което ни помага да се справим по-добре с дигиталната червена линия. По този начин, тези сметки насърчават необходимата отчетност и прозрачност за потребителите.
През есента на 2022 г. Службата за научна и технологична политика (OSTP) на администрацията на Байдън дори предложи „Проект за Закон за правата на ИИ“. Защитите включват правото да „знаете, че се използва автоматизирана система и да разберете как и защо тя допринася за резултати, които ви влияят“. Това е страхотна идея и може да бъде включена в отговорностите за създаване на правила, които FTC ще има, ако AAA или ADPPA преминат. Въпросът е, че AI не трябва да бъде пълна черна кутия за потребителите и потребителите трябва да имат права да знаят и да възразяват – подобно на това, което трябва да имат при събирането и обработването на техните лични данни. Освен това потребителите трябва да имат право на частни действия, ако базираните на изкуствен интелект системи им навредят. А уебсайтовете със значително количество текст и изображения, генерирани от AI, трябва да имат еквивалент на етикет за хранителна стойност на храната уведомете ни какво е генерирано от AI съдържание спрямо генерирано от хора .
Нуждаем се и от AI сертификати. Например, финансовата индустрия има акредитирани дипломирани експерт-счетоводители (CPA) и сертифицирани финансови одити и отчети, така че трябва да имаме еквивалента за AI. Нуждаем се от кодекси за поведение при използването на AI, както и от индустриални стандарти. Например Международната организация за стандартизация (ISO) публикува стандарти за управление на качеството, към които организациите могат да се придържат за киберсигурност, безопасност на храните и т.н. За щастие, работна група с ISO започна разработването на нов стандарт за управление на риска от ИИ. И още едно положително развитие, Националният институт за стандарти и технологии (NIST) пусна първоначалната си рамка за управление на риска от ИИ през януари 2023 г.
Трябва да напомним на компаниите да имат по-разнообразни и всеобхватни дизайнерски екипи, изграждащи AI. Както каза Олга Русаковски, асистент в катедрата по компютърни науки в Принстънския университет: „Има много възможности за разнообразяване на този набор [of people building AI systems]и с нарастването на разнообразието самите AI системи ще станат по-малко предубедени.“
Тъй като регулаторите и законодателите се задълбочават в антитръстовите въпроси, свързани с големите технологични фирми, ИИ не трябва да се пренебрегва. Ако перифразираме Уейн Грецки, регулаторите трябва да се пързалят накъде отива шайбата, а не там, където е била. AI е мястото, където върви шайбата в технологиите. Следователно придобиванията на AI компании от големи технологични компании трябва да бъдат по-внимателно разгледани. В допълнение, правителството трябва да обмисли задължителна отворена интелектуална собственост за AI. Например, това може да се моделира по федералния указ за съгласие от 1956 г. с Bell, който изисква Bell да лицензира всички свои патенти безвъзмездно на други фирми. Това доведе до невероятни иновации като транзистора, слънчевата клетка и лазера. Не е здравословно за нашата икономика бъдещето на технологиите да бъде концентрирано в ръцете на няколко фирми.
И накрая, нашето общество и икономика трябва да се подготвят по-добре за въздействието на ИИ върху изместването на работници чрез автоматизация. Да, трябва да подготвим нашите граждани с по-добро образование и обучение за нови работни места в света на ИИ. Но трябва да бъдем умни по отношение на това, тъй като не можем да кажем, нека преквалифицираме всички да бъдат разработчици на софтуер, защото само някои имат това умение или интерес. Имайте предвид също, че AI все повече се създава за автоматизиране на разработването на софтуерни програми, така че дори да знаете какви софтуерни умения трябва да се преподават в света на AI е от решаващо значение. Както посочи икономистът Джоузеф Е. Стиглиц, имахме проблеми с управлението на по-малки промени в технологиите и глобализацията, които доведоха до поляризация и отслабване на нашата демокрация, а промените на AI са по-дълбоки. Затова трябва да се подготвим за това и да гарантираме, че ИИ е чист положителен за обществото.
Като се има предвид, че Big Tech води таксата за AI, гарантирането, че ефектите му са положителни, трябва да започне с тях. AI е невероятно мощен и Big Tech е „ол-ин“ с AI, но AI е изпълнен с рискове, ако се въведе пристрастие или ако е създадено да използва. И както документирах, Big Tech имаше проблеми с използването на AI. Това означава, че не само дълбочината и обхватът на събирането на нашите чувствителни данни са заплаха, но и начинът, по който Big Tech използва AI за обработка на тези данни и за вземане на автоматизирани решения, също е заплаха.
По този начин, по същия начин, по който трябва да ограничим цифровото наблюдение, трябва също да гарантираме, че Big Tech не отваря кутията на Пандора с AI.
Всички продукти, препоръчани от Engadget, са избрани от нашия редакционен екип, независимо от нашата компания майка. Някои от нашите истории включват партньорски връзки. Ако купите нещо чрез една от тези връзки, може да спечелим партньорска комисионна. Всички цени са верни към момента на публикуване.