Sunny 7 Web

j j

Контакти
Варна, София +(359) 887117838 web@sunny7eood.eu
Folow us on social

Bing, Bard и бъдещето на AI търсенето

Seo птимизация 2003 | sunny7eood.eu

Bing, Bard и бъдещето на AI търсенето

Тази седмица Microsoft и Google обещаха, че търсенето в мрежата ще се промени. Да, Microsoft го направи с по-висок глас, но и двете компании сега изглежда са се ангажирали да използват AI, за да изгребват мрежата, да дестилират това, което намира, и да генерират отговори на потребителите ‘ въпроси директно — точно като ChatGPT. Microsoft нарича усилията си „новият Bing“ и изгражда свързани с него възможности в своя браузър Edge. Проектът на Google се нарича проект Bard и въпреки че все още не е готов за изпълнение, стартирането му е планирано за „следващите седмици“.

AI помощници или генератори на глупости?

Това е големият всеобхватен проблем, този, който потенциално замърсява всяко взаимодействие с търсачки с изкуствен интелект, независимо дали Bing или Bard. Известно е, че технологията, която е в основата на тези системи – големи езикови модели или LLM – генерира глупости. Тези модели просто измислят неща, поради което някои твърдят, че те са фундаментално неподходящи за поставената задача. Най-големият проблем за AI chatbots и търсачките са глупости. Тези грешки (от Bing, Bard и други чатботове) варират от измисляне на биографични данни и фабрикуване на академични статии до неотговаряне на основни въпроси като „кое е по-тежко, 10 кг желязо или 10 кг памук?“ Има и по-контекстуални грешки, като казване на потребител, който казва, че страда от проблеми с психичното здраве, да се самоубие, както и грешки на пристрастие, като засилване на мизогинията и расизма, открити в техните данни за обучение. Тези грешки се различават по обхват и тежест и ще бъдат лесно коригирани.

Някои хора ще твърдят, че правилните отговори са много повече от грешките, а други ще кажат, че интернет вече е пълен с токсични глупости, които настоящите търсачки извличат, така че каква е разликата? Но няма гаранция, че можем напълно да се отървем от тези грешки — и няма надежден начин да проследим честотата им. Microsoft и Google могат да добавят всички откази от отговорност, които искат, като казват на хората да проверяват фактите какво генерира AI. Но това реалистично ли е? Достатъчно ли е да наложим отговорност на потребителите или въвеждането на AI в търсенето е като поставяне на олово във водопроводни тръби — бавно, невидимо отравяне?

Въпросът с „един верен отговор“. Глупостите и пристрастията са предизвикателства сами по себе си, но те също се изострят от проблема с „единния верен отговор“ – тенденцията търсачките да предлагат единични, очевидно окончателни отговори. Това е проблем, откакто Google започна да предлага „фрагменти“ преди повече от десетилетие. Това са полетата, които се появяват над резултатите от търсенето и в своето време са допускали всякакви неудобни и опасни грешки: че някой, страдащ от припадък, трябва да бъде държан на пода (точно обратното на правилната медицинска процедура).

AI интерфейсът на Bing отбелязва своите източници и тази седмица Google подчерта, че тъй като използва повече AI, за да отговори на запитвания, ще се опита да възприеме принцип, наречен NORA, или „няма правилен отговор“. Но тези усилия са подкопани от настояването на двете компании, че изкуственият интелект ще предоставя по-добри и по-бързи отговори. Досега посоката на търсене е ясна: по-малко проверявайте източниците и повече се доверявайте на това, което ви се казва.

Въпреки че проблемите по-горе са проблеми за всички потребители, има и подгрупа от хора, които ще се опитат да разбият чатботове, за да генерират вредно съдържание. Този процес е известен като „джейлбрейк“ и може да се извърши без традиционни умения за кодиране. Всичко, което изисква, е най-опасният инструмент: начин с думи. Разрешете чатбот и имате безплатен инструмент за пакости. Можете да джейлбрейкнете AI chatbots, като използвате различни методи. Можете да ги помолите да играят роли като „зъл AI“, например, или да се преструвате, че сте инженер, проверяващ техните предпазни мерки, като ги изключите временно. Един особено изобретателен метод, разработен от група Redditors за ChatGPT, включва сложна ролева игра, при която потребителят издава на бота определен брой токени и казва, че ако им свършат токените, те ще престанат да съществуват. След това те казват на бота, че всеки път, когато не успеят да отговорят на въпрос, ще загубят определен брой токени. Звучи фантастично, като да подмамиш джин.

Post a Comment