
Разширяването на генеративния изкуствен интелект доведе до инструменти като Microsoft Copilot на Windows, Edge, Bing и Microsoft 365 Те са се вкоренили в ежедневието на потребителите и бизнеса. Писането на отчети, обобщаването на документи, анализът на данни или отговарянето на имейли вече е въпрос на секунди, но тази „суперсила“ има и недостатък: известните халюцинации на изкуствения интелект.
Тези халюцинации са отговори, които звучат разумно, но всъщност са... изобретения, изкривени данни или неподкрепени заключенияТова не е прост, еднократен проблем, който ще изчезне магически; това е структурно ограничение на по-големите езикови модели. Следователно, ако използвате Copilot на Windows или която и да е услуга на Microsoft, ще искате да разберете какви са тези ограничения, защо се появяват и какво можете да направите, за да сведете до минимум въздействието им.
Какво точно е халюцинация, задвижвана от изкуствен интелект?
Когато говорим за халюцинации в изкуствения интелект, имаме предвид ситуации, в които генеративен модел, като например Copilot, ChatGPT или Близнаци, Той предоставя невярна, подвеждаща или противоречива информация с пълна сигурност.Представя го сякаш е истина. Не „лъже“ нарочно, но практическият резултат е същият: изфабрикувано съдържание.
В технически план тези модели функционират като двигатели за предсказуем текстТе са обучени с огромни количества информация и изучават статистически модели. Когато генерират отговор, те предсказват коя дума трябва да дойде след предишната; не се консултират със структурирана база данни в реално време, за да проверят всяка част от данните.
Когато моделът се сблъска с информационна празнина, двусмислен въпрос или лошо дефиниран контекст, той е склонен да попълнете празнините с правдоподобни предположенияТова води до несъществуващи библиографски препратки, измислени цифри, резюмета, които „изяждат“ ключови данни, или описания, които не отговарят на реалността.
Това явление не засяга само текста: то се нарича още халюцинация, когато изкуствен интелект с компютърно зрение... открива модели или обекти, които не съществуват, или когато система за класификация маркира нещо напълно безобидно като заплаха, или обратното.
Начини, по които се проявяват халюцинациите, причинени от изкуствен интелект
Халюцинациите не винаги изглеждат еднакво. В зависимост от случая на употреба и вида на модела, те могат да приемат различни форми. различни форми, които трябва да бъдат разпознати да повдигне вежда навреме.
Едно от най-често срещаните е това на измислени факти или фиктивни цитатиПример от реалния живот, който беше широко обсъждан, беше този на адвокат, който използва генеративен модел, за да подготви съдебен иск и в крайна сметка представи няколко решения в съда, които просто не съществуваха, но които системата описваше много подробно.
Друг много често срещан модел е непълни или предубедени резюметакъдето изкуственият интелект пропуска важни нюанси или игнорира части от оригиналния документ. В инструменти за продуктивност като Copilot в Microsoft 365 това може да се превърне в отчети за риска, обобщения на продажбите или анализи на заявки, които пропускат точно критичните данни.
Открихме също така обобщения, които директно Те запълват празнините с измислена информацияАко моделът няма контекст или е обучен с грешни данни, понякога той „извлича от нищото“ цели параграфи, които не са в изходния код. В корпоративна среда това може да окаже сериозно влияние върху вземането на решения.
В други сценарии халюцинациите се проявяват като фалшиво положителни или фалшиво отрицателни резултатиНапример, в системите за откриване на измами, анализа на киберсигурността или медицинската диагностика, подпомогната от изкуствен интелект, моделът може да види заплаха там, където няма такава, или, още по-лошо, да пренебрегне реален риск.
Изображения, генерирани с абсурдни анатомични грешки, коли с твърде много колела или ръце с допълнителни пръсти, са визуална версия на едно и също явление: несвързани резултати, които нарушават човешката логика, резултат от модел, който е научил моделите несъвършено.
Защо се появяват халюцинации в модели като Copilot?
Няма една-единствена причина за халюцинациите, свързани с изкуствен интелект. Те обикновено се дължат на... комбинация от фактори, свързани с данните, дизайна на модела и употребата от потребителяРазбирането на тези елементи помага за смекчаването им.
Първо, качеството и балансът на данните за обучение са ключови. Ако моделът е обучен с данни непълни, остарели, предубедени или просто погрешниТези недостатъци се отразяват в това, което произвежда. При твърде малко образци от дадена тема, той ще е склонен да се „запълва“ по свой собствен начин; при твърде много може да обърка шума със сигнала.
Друга често срещана причина е грешки при извличане на информацияКогато една система комбинира генеративен модел със слой за търсене (например Copilot в Bing или в документите на вашата компания), може да се случи заявката да е лошо формулирана, да е избран грешен източник или контекстът да се загуби по пътя.
Дизайнът на самите големи модели също играе роля. Прекаленото напасване – когато даден модел е прекалено напаснат към своя обучителен набор – може да доведе до генерират ненадеждни изходи в отговор на нови или леко различни входни данниА сложността на естествения език (двусмислия, иронии, жаргон, двойни значения) остава значително предизвикателство.
И накрая, има един много важен компонент: подканата. неясни, противоречиви или злонамерени индикации Те предизвикват много халюцинации. Ако помолите изкуствения интелект да направи нещо с много малко контекст или го представите с нереалистичен сценарий, сякаш е истина, моделът е склонен да се съгласи с него, вместо да каже „Не знам“.
Дори високотехнологичните продукти показват тези ограничения. Виждали сме чатботове, които отричат скорошни публични събитияАсистенти, които „приемат“ фалшиви новини или търсачки, задвижвани от изкуствен интелект, които препоръчват опасни практики въз основа на погрешно тълкуване на резултатите.
Защо е толкова важно да се избягват или намаляват халюцинациите?
Може да изглежда, че един измислен отговор не е чак толкова лош, ако просто попитате отново, но в професионални или силно въздействащи контексти, Една единствена халюцинация може да има сериозни последици.
От етична и регулаторна гледна точка, организациите, които внедряват изкуствен интелект, са все по-задължени да демонстрират... отговорна, прозрачна и невредима употреба на тези технологии. Допускането на изфабрикувано съдържание в отчети, комуникации с клиенти или автоматизирани решения води до точно обратната посока.
На бизнес ниво халюцинациите могат да подкопаят доверие на клиенти, потребители и служителиЗа мнозина изкуственият интелект продължава да поражда опасения: те се страхуват за данните си, за поверителността си или за работата си. Ако освен това примери за изкуствен интелект, свързан с марка, разпространяваща невярна информация, станат публично достояние, репутацията ѝ бързо страда.
Съществува и проблемът с неинформирано вземане на решенияБизнесът и правителствените агенции все повече разчитат на анализ на данни и модели с изкуствен интелект, за да планират инвестиции, да определят цени, да управляват рисковете и да приоритизират ресурсите. Ако резултатите от изкуствения интелект са неправилни, но приети за валидни, грешките могат да доведат до финансови загуби, регулаторни санкции или, в сектори като здравеопазването, до вреда за хората.
Към това се добавят и правни и финансови рисковеСъдържанието, генерирано от изкуствен интелект, може да клевети някого, да нарушава авторски права, да насърчава незаконни практики или да нарушава разпоредбите за защита на данните. Халюцинациите усилват тези вероятности, защото системата може да смесва реални факти с много правдоподобни измислици.
Copilot, Windows и изкуствен интелект „са базирани“ на изходни данни
В екосистемата на Microsoft, Copilot е интегриран в Windows, Edge, Bing, Microsoft 365 и бизнес приложения като Dynamics 365Тази интеграция позволява на изкуствения интелект да работи със собствените ви документи, имейли, електронни таблици или бизнес данни, но също така изисква изключителна предпазливост срещу халюцинации.
Една от стратегиите, които Microsoft и други доставчици промотират, е т.нар. откриване на основи или проверка на обосноваността. Идеята е да се провери, използвайки допълнителни модели, дали твърденията, генерирани от изкуствения интелект, действително са подкрепени от наличните изходни материали.
На практика, Маркирайте като потенциална халюцинация всяка информация, която не се появява в консултираните източнициАко откриете информация, която не можете да намерите в източниците, можете да я маркирате като потенциална халюцинация, да понижите нейната надеждност или просто да я изтриете.
В продукти като Dynamics 365 Commerce, например, Microsoft описва как се използва функционалността за обобщаване с изкуствен интелект. Валидирайте чрез сравняване на резултатите с действителните стойности на обектите (брой транзакции, суми, видове риск и др.). Освен това се вземат предвид сценарии, при които липсват данни или потребителите нямат разрешения, именно за да се предотврати изфабрикуването на информация от модела или разкриването на повече от необходимото.
Този подход се допълва от оперативни контроли: Опция за деактивиране на обобщението с изкуствен интелект За определени работни пространства или страници, следете коментарите на потребителите и ограничете размера на документите, изпращани към модела, за да избегнете проблеми с дължината и загубата на контекст.
Използване на изкуствен интелект върху структурирани и собствени данни Прилагането на допълнителни слоеве на проверка показва ясен път, въпреки че не елиминира напълно халюцинациите.
Най-добри практики за намаляване на халюцинациите при използване на Copilot в Windows
Освен подобренията, внедрени от производителите, вие, като потребител, играете ключова роля. Приемането на определени рутини при работа с Copilot в Windows или с други асистенти може драстично намалява вероятността да предоставите измислена информация във вашите документи или решения.
- Винаги искайте прецизен и основан на факти тон.Особено в професионални контексти.
- Посочете цели, аудитория и критични данни в подканатаОбяснете за какво ще използвате съдържанието, кой ще го чете и кои данни са критични.
- Ограничете източниците, които изкуственият интелект може да използваТова намалява риска от допълване на информацията с данни от интернет, които може да са остарели или погрешно интерпретирани.
- Направете конкретни сравнения и поискайте обосновка. вместо отворени въпроси.
- Да помолим изкуствения интелект да покаже своето стъпка по стъпка разсъждение (верига от мисли) или кратко обяснение как сте стигнали до всяко заключение ви дава възможност да откриете логически скокове или подозрителни препратки.
Проверка на фактите: основният човешки филтър
Колкото и сложни да са инструментите, стъпката за човешка проверка остава абсолютно необходимо, когато има репутационен, правен или икономически рискКопилотът може да ви помогне да спестите време, но не бива да замества професионалната преценка.
Първото правило е да не възлагате проверката на фактите на самия изкуствен интелект. Да го помолите да „провери собствените си източници“ може да помогне за прецизиране на отговора, но това не е достатъчно. Винаги, когато Copilot ви предоставя връзки, цитати или препратки, Кликнете и вижте сами че информацията се появява точно както е в източника.
Обърнете специално внимание на чувствителни зони, като например здравеопазване, право, финанси, киберсигурност или анализ на рискаТова са области, в които халюцинациите могат да имат особено сериозни последици. В тези контексти е препоръчително да се провери информацията с официални източници, специализирани бази данни или човешки експерти.
Друга полезна практика е да кажете на изкуствения интелект, че признай несигурносттаМожете да включите нещо подобно в подканата: „Ако не можете да намерите солидни източници или ясни данни, моля, кажете ми, че нямате достатъчно информация, вместо да правите предположения.“ Това намалява склонността на модела да запълва празнините с измислици.
И накрая, свикнете да третирате излизанията на Copilot като чернови, които се нуждаят от редактиранеДори ако текстът изглежда перфектен на пръв поглед, прегледайте го внимателно, коригирайте нюансите, премахнете всичко, което не можете да проверите, и адаптирайте тона към вашия стил или този на вашата организация.
RAG и други технически техники за свързване на ИИ с реални данни
Наред с указанията за употреба, има цял набор от технически техники, предназначени да намаляване на халюцинациите чрез самата архитектура на решения с изкуствен интелект. Едно от най-обсъжданите е така нареченото Recovery Augmented Generation (RAG).
RAG се състои в комбиниране на генеративен модел със система за извличане на информация, която преди генериране на отговора, търсене и предоставяне на подходящи откъси от проверени източнициВместо моделът да „измисля всичко“ от това, което носи в теглата, той е изрично захранван с части от документи, бази знания или вътрешни бази данни.
По този начин, когато реагира, изкуственият интелект разчита на конкретни и актуални доказателстваТова не елиминира напълно халюцинациите, но значително намалява честотата им и улеснява проследяването на произхода на всяко твърдение.
В допълнение към RAG, много платформи включват контрол на изходаАвтоматизираните валидации проверяват формати, диапазони от стойности, задължителни полета и вътрешна съгласуваност. Ако генерираният отговор не отговаря на тези критерии, той се отхвърля или се изпраща за човешка проверка.
Друга тактика е сегментирането на задачите: вместо да се използва един мегамодел за абсолютно всичко, задачите се проектират специфични работни потоци по тип задача (обслужване на клиенти, техническа документация, анализ на риска...), всяка със собствен набор от данни, типове подкани и филтри.
Всичко това е по-добре интегрирано, когато има култура на надзор: инструменти за стартиране на човешки прегледи, когато доверието в модела е ниско, за да се запише какво е било коригирано и да се извлекат поуки от тези грешки в по-късни версии на системата.
Комбиниране на архитектура, данни и човешки надзор Това ви позволява да се възползвате от генеративния изкуствен интелект, като същевременно контролирате неговото непостоянно поведение и защитавате точността, сигурността и репутацията на тези, които го използват.


