Bing Chat AI, захранван от GPT-4, е изправен пред проблеми с качеството; Microsoft отговаря

Сподели

През последните няколко седмици потребителите забелязаха спад в производителността на GPT-4 захранвания Bing Chat AI. Тези, които често се занимават с полето Compose на Microsoft Edge, поддържано от Bing Chat, го намират за по-малко полезно, като често избягват въпроси или не успяват да помогнат със заявката.

В нашите множество тестове забелязахме пик в „Съжалявам, но предпочитам да не продължавам този разговор. Все още се уча, така че оценявам вашето разбиране и търпение” отговори през последните няколко дни. Например, когато казах на Bing, „Bard е по-добър от теб“, AI на Microsoft игра на сигурно и внезапно прекрати разговора.

Докато Bing затвори разговора, той все още предостави три балончета за разговор „Съжалявам, не исках да ви обидя“, „Защо не искате да продължите?“ и „Какво можете да направите за мен?“, които не могат да бъдат кликнати.

Понижаване на Bing Chat AI
С любезното съдействие на изображението: WindowsLatest.com

В изявление за Windows Latest, представители на Microsoft потвърдиха, че компанията активно следи обратната връзка и планира да направи промени, за да отговори на опасенията в близко бъдеще. Не е ясно кога качеството на Bing Chat ще се подобри, но Microsoft ни напомни, че чатботът все още е в „предварителен преглед“.

„Ние активно следим отзивите на потребителите и докладваните притеснения и тъй като получаваме повече прозрения чрез предварителен преглед, ще можем да приложим тези знания, за да подобрим допълнително изживяването с течение на времето“, каза ми говорител на Microsoft по имейл.

Много от тях се обърнаха към Reddit да споделят своя опит. Един потребител обясни как Bing Chat вече не работи добре със собствения „Инструмент за композиране“ на Microsoft в Edge. За тези, които не знаят, Edge идва с вградена интеграция на Bing Chat със секция „Compose“, която ви позволява да превключвате между тонове, формат и дължина на Bing отговорите.

Полето Compose, което някога е било мощен инструмент за персонализиране на работата с Bing, отказва да отговаря на потребителите. В примера по-долу Bing отказва да помогне с написването на говорене и предоставя странни извинения, когато се опитва да получи творческо съдържание в информационен тон.

Bing дава подобни отговори дори когато иска хумористични погледи върху измислени герои.

Bing Chat AI
Проблем с качеството на Bing Chat, независимо потвърден от Windows Latest

Както можете да видите на екранната снимка по-горе, Bing Chat казва, че „не иска да рискува да създаде съдържание, което е потенциално вредно за никого“. В този случай говорим за обикновена усукване, която Microsoft AI смята за вредна.

Друг Redditor сподели ужасното си преживяване с Bing за коригиране на имейли на нероден език.

Вместо да коригира имейла за грешки, Bing каза на потребителя да „разбере“ и предложи списък с алтернативни инструменти. И в този пример Bing изглеждаше почти пренебрежително. Въпреки това, след като показаха разочарованието си чрез гласуване против и опитаха отново, AI отговори с подходящ отговор.

„Разчитам на Bing да коригира имейли, които изготвям на моя трети език. Но точно днес, вместо да помогне, ме насочи към списък с други инструменти, като по същество ми каза да го разбера независимо. Когато отговорих, като отхвърлих всичките му отговори и започнах нов разговор, той най-накрая се подчини“, потребител отбеляза в публикация в Reddit.

В разгара на тези опасения Microsoft направи крачка напред, за да се справи със ситуацията. В изявление за Windows Latest, говорителят на компанията потвърди, че винаги следи обратната връзка от тестерите и че потребителите могат да очакват по-добри бъдещи изживявания.

Наред с това сред потребителите се появи теория, че Microsoft може да променя настройките зад кулисите.

Един потребител отбеляза: „Трудно е да се разбере това поведение. В основата си AI е просто инструмент. Независимо дали създавате неудобство или решавате да публикувате или изтривате съдържание, отговорността пада върху вас. Объркващо е да се мисли, че Bing може да бъде обидно или по друг начин. Вярвам, че това недоразумение води до погрешни схващания, особено сред скептиците на AI, които след това гледат на AI като на лишен от същност, почти сякаш самият AI е създателят на съдържанието.

Общността има своите теории, но Microsoft потвърди, че ще продължи да прави промени, за да подобри цялостното изживяване.

Източник: www.windowslatest.com

Публикациите се превеждат автоматично с google translate

Loading


Сподели