Автор: Траяна Вукадинова
Траяна е икономист и предприемач, занимаващ се повече от 15 години с организационно консултиране и обучения в областта на финансите.
01 МАРТ 2023
Едно от първите наблюдения на поведенческия психолог Доналд Норман, създателя на концепцията за потребителско преживяване, направено още през 80-те години на миналия век е, че колкото по-сложна е една технология, токлова повече хората са склонни да обвиняват себе си, че са допуснали грешка, когато получават неочакван или откровено неверен резултат. Неговите изследвания са с телефонни секретари, дистанционни на телевизори (и в момента настройването им е сериозно предизвикателство за много хора) и едни от първите компютри. Днес, почти половин век по-късно, ситуацията не се е променила особено – колкото по-неразбираем за хората е начинът, по който нещо работи, толкова по-склонни са те да очакват винаги верни резултати. ChatGPT не прави изключение от тази тенденция – „Чатът каза, значи е вярно“. Неоспорим факт е, че ChatGPT е един от най-мощните инструменти за генериране на естествен език, обучен с помощта на немислима от човешка гледна точка база данни, но въпреки това той има своите ограничения, които засягат както технологията, така и потенциалните му приложения, които трябва да се вземат предвид при ползването му. Затова – какви са ограниченията на ChatGPT, за какво да внимаваме и как могат да бъдат преодолени в бъдеще?
Етиката обичайно става тема, когато се премине отвъд обективните ограничения при употребата. Обикновен готварски нож не повдига етични въпроси, когато се ползва в кухнята. Ако, обаче, с него се извърши убийство, това не само е етично укоримо, но е и подсъдно. В този смисъл въпросът за границата на ChatGPT, или до къде се простира неговата кухня се оказва съществен.
Както създателите му от OpenAI, така и самият ChatGPT споделят за определени ограничения в технологията, които до известна степен предопределят и това за какво може да се ползва спокойно. На първо място това е неточността и липсата на контекст при някои отговори. ChatGPT е обучен с огормна база данни текстове на всякаква тематика (на практика – над 2 млрд. текста от всякакъв вид – книги, научни изследвания, сайтове, блогове, статии, текстове в социални медии и т.н.), но това не го прави експерт във всяка област. В допълнение самата технология е такава, че ботът е „научен“ кои думи с кои други думи пасват най-добре, без оглед на това предоставяната информация вярна ли е обективно или не. Също така не бива да се забравя, че текстовата му база данни е с обхват до края на 2021 г., т.е. всичко случило се след тови момент, включително и научни, и медицински открития, не са достъпни за ChatGPT и той не знае за тях. В този смисъл да се ползва ChatGPT като основа за вземане на важни решения, като касаещи здравето или финансите, например, не се препоръчва изобщо.
Липсата на емпатия е друга ограничаваща употребата особеност на ChatGPT. Като езиков модел, т.е. на практика алгоритъм, въпреки че звучи досущ като човек, ChatGPT не изпитва чувства и не може да разпознава чувства. Огромна част от междуличностната комуникация е базирана на емпатия и това са процеси, които протичат напълно несъзнателно и неконтролирано от хората, но благодарение на тях общуването в стандартния случай тече гладко. ChatGPT няма подобна функция и отговорите, които дава в специфичен контекст могат да звучат грубо, обидно или откровено неуместно. В този смисъл директната, нередактирана употреба на генерираните от ChatGPT текстове може да се окаже критична.
Друга, на пръв поглед противоречаща на основната му функция за генериране на съдържание е липсата на креативност и фантазия. Това отново е свързано с начина, по който ChatGPT работи – въз основа на обучението си с огромна текстова база данни той е в състояние да компилира по човешки звучащ начин вече съществуваща някъде из базата му данни информация, но това не са нови, оригинални, непознати до момента негови си съждения. На лингвистично ниво текстът всеки път е „оригинален“ и различен (затова и ChatGPT не дава два пъти един и същи отговор, дори и когато въпросите се повтарят), но съдържащите се идеи и постановки са създадени от някой друг.
Непредсказуемостта на отговорите (от човешка гледа точка, разбира се) също е ограничение при ползването на ChatGPT. Генерирането на отговори става на база технологията (най-общо казано - напасване на думи в определен контекст), но ползвайки случайни разпределения. В този смисъл някои отговори биха могли да бъдат доста неочаквани или озадачаващи и отново да изискват човешка редакция или поне преглед.
...и как може да бъде преместена
Всичко, изброено до момента, разбира се, не са случайните открития на потребителите, тествали ChatGPT през последните два месеца, а обективната реалност още при пускането му в употреба. Това причината и създателите му от OpenAI да продължават работата си по бота с цел елиминиране на ограниченията и подобряване на работата му.
Една от мерките е съветът за добавяне на контекст от стана на потребителите при задаване на въпроси. Колкото по-детайно и конкретно е зададен въпросът, толкова по-верен, смислен и прецизен ще бъде отговорът. На практика това е вярно и за общуването с други хора – твърде общ въпрос като „Как си?“ обичайно води до безмисления отговор „Горе-долу“; конкретизирането с „Как се чувстваш след като се върна от почивката в Испания и отново си на работа?“ ще даде доста повече информация за емоционалното състояние на събеседника. Поддържайки разговор с конкретен потребител и имайки предвид неговите собствени рекации на одобрение или неодобрение, задаването на уточняващи въпроси и даването на допълнителни инструкции, толкова по-добър става ChatGPT в даването на адекватни отговори на задаваните от него въпроси. Според информацията в момента, тази персонализация и напасване на комуникацията към конкретния потребител не оказва влияние на работата на ChatGPT като цяло (т.е. тя си остава локална история на комуникацията), но дори и в този си формат повишава качеството на даваните отговори.
Друга възможност за справяне с обективно не напълно верните отговори е допълнително обучение на бота със специализирани медицински, юридически и бази данни от други специфични области на познанието, но до момента от страна на фирмата-създател не е споделяна информация за планирани допълнителни обучителни активности в тази посока.
Комбинирането му с други подобни езикови модели като BERT (Bidirectional Encoder Representations from Transformers – модела за обработка на естествен език, разработен от Google, който може да разбира контекста на определена текстова информация и да извлича в синтезиран вид смисъла му) или ELMo (Embeddings from Language Models – един от първите езикови модели, разработка на AI2, ползващ невронни мрежи и различни значения на една и съща дума в зависимост от контекста на употреба) се счита, че би повишило значително способността на ChatGPT да разбира адекватно задаваните му въпроси и да формулира подходящи отговори. За момента подобно сътрудничество още не е обявено.
И, разбира се, ресурс, който е изцяло в ръцете на потребителите е избягването на сложни въпроси и спорни теми. Със сигурност е доста изкушаващо на ChatGPT да бъдат задавани провокативни въпроси и да се търси реакцията му по спорни теми, но резултатът в стандартния случай е политически коректен отговор, в който преобладават общите приказки. В този смисъл създателите му са постигнали несъмнено по-голям успех в сравнение с Тай, ботът на Microsoft, който през 2016 г. започна да обижда потребителите с дикриминативни, сексистки и расистки коментари по-малко от 24 часа след пускането му в употреба (повече за случая може да се намери тук). Въпреки това, обаче, при достатъчно упорство от страна на питащия и задаването на подходящите манипулативни въпроси, ChatGPT може да бъде „подведен“ да дава отговори, които не се очакват от него и които са в противоречие на основната му функция.
Във всички случаи преодоляването на ограниченията на ChatGPT е въпрос на още много допълнителна работа с бота, както и на прилагането на технологии и иновации, които все още са в процес на разработка и изследване или казано по друг начин – развитието и усъвършенстването на ChatGPT тепърва предстои.
Автор: Траяна Вукадинова
Траяна е икономист и предприемач, занимаващ се повече от 15 години с организационно консултиране и обучения в областта на финансите.
Виж още
В момента няма активен агент, който да ти отговори.
Пиши ни всеки работен ден от 8:00 до 19:00 часа или изпрати въпроса си във формата тук.