На конференцията I/O 2022 през миналия май главният изпълнителен директор на Google Сундар Пичай обяви, че през следващите месеци компанията постепенно ще се възползва от своя експериментален разговорен AI модел LaMDA 2 за избрани бета потребители. Дойдоха тези месеци. В четвъртък, съобщиха изследователи от отдела за изкуствен интелект на Google че заинтересованите потребители могат да се регистрират за изследване на модела, тъй като достъпът става все по-достъпен.
Редовните читатели ще разпознаят LaMDA като моделът на предполагаемата чувствителна обработка на естествен език (NLP). заради което изследовател на Google беше уволнен. NLPs са клас AI модели, предназначени да анализират човешката реч в изпълними команди и стоят зад функционалността на дигитални асистенти и чатботове като Siri или Alexa, както и извършват тежката работа за приложения за превод и субтитри в реално време. По принцип винаги, когато говорите с компютър, той използва НЛП технология, за да слуша.
„Съжалявам, не разбрах това“ е фраза, която все още преследва мечтите на много ранни осиновители на Siri, въпреки че през последното десетилетие НЛП технологията напредна с бързи темпове. На днешните модели се тренира стотици милиарди параметриможе да превежда стотици езици в реално време и дори да пренася уроците, научени в един разговор, до следващите чатове.
Фокусът върху безопасни, отговорни взаимодействия е често срещан в индустрия, където вече има име за ИИ на чатботове, които стават напълно нацистки, и това име е в Taye. За щастие, този изключително смущаващ инцидент беше урок, който Microsoft и голяма част от останалата част от областта на изкуствения интелект са взели присърце, поради което виждаме толкова строги ограничения за това, което потребителите могат да имат Midjourney или Dall-E 2, или какви теми във Facebook Blenderbot 3 може да обсъжда.
Това не означава, че системата е безпогрешна. „Проведохме специални кръгове на състезателно тестване, за да открием допълнителни недостатъци в модела“, пишат Warkentin и Woodward. „Ние привлякохме експертни членове на червения екип… които са разкрили допълнителни вредни, но фини резултати.“ Те включват неуспешно „произвеждане на отговор, когато се използват, защото има трудности при разграничаването между доброкачествени и противопоставящи се подкани“ и произвеждане на „вредни или токсични реакции въз основа на отклонения в данните за обучението“. Както много изкуствени интелекти в наши дни обичат да правят.
Публикациите се превеждат автоматично с google translate