Слуховете за комерсиално ориентиран модел Meta AI бяха верни. Meta и Microsoft се обединиха за разкривам Llama 2, голям езиков (много обобщен) AI модел от следващо поколение, предназначен както за търговски, така и за изследователски цели. Надграденият код с отворен код поставя по-голям акцент върху отговорността. Разработчиците „обединиха“ моделите (т.е. тестваха ги за безопасност) и създадоха схема за прозрачност, за да уточнят потенциалните проблеми. Те също така включват ръководство за отговорна употреба и има политика за приемлива употреба за предотвратяване на злоупотреби като престъпна дейност, подвеждащи представяния и спам.

Мета е освобождаване както предварително обучени, така и ориентирани към разговори версии на Llama 2 безплатно. Microsoft го прави достъпен чрез каталога на Azure AI за използване с облачни инструменти, като филтриране на съдържание. Инструментът може също така да работи директно на компютри с Windows и ще бъде достъпен чрез външни доставчици като Amazon Web Services и Hugging Face.

Оригиналният AI модел беше с отворен код, но предназначен стриктно за академици и изследователи. Llama 2 позволява на компаниите да персонализират технологията за собствените си цели, като чатботове и генератори на изображения. В идеалния случай това позволява на компаниите да се възползват от моделирането, като същевременно предоставя на външни лица начин да проверяват за пристрастия, неточности и други недостатъци. Кодът с отворен код не е нещо ново в света на изкуствения интелект — стабилната дифузия на Stability е забележителен пример. Въпреки това, големи конкуренти като GPT-4 на OpenAI са склонни да бъдат блокирани в името на приходите от абонамент или лицензиране. Съществуват също опасения, че хакери и други лоши участници могат да пренебрегнат лицензите с отворен код и да използват тези инструменти за опасни цели.

Както при GPT-4 и Claude 2 на Anthropic, акцентът върху отговорната употреба не е изненадващ. Технологичната индустрия е загрижена, че големите езикови модели на ИИ могат да излязат извън контрол, което да доведе до роботи убийци или по-нататъшно разпространение на дезинформация. Експерти и лидери на компании дори призоваха за шестмесечно замразяване на експериментите, за да се гарантира, че разработчиците ще се справят с етичните проблеми и проблемите, свързани с безопасността. Политиците също се надяват да регулират AI, като един законопроект на Сената има за цел да подведе създателите на AI под отговорност за вредно съдържание.