Защо инструментите за ИИ предизвикват опасения в прозрачността

Дата: 06.09.2023
Съдържание:
През март двама служители на Google се опитаха да спрат компанията да пусне чатбот с изкуствен интелект, като заявиха, че той е твърде склонен да прави неточни изявления. Google пренебрегна тези опасения и няколко седмици по-късно пусна Bard.
Това бе агресивен ход на обикновено избягващата рискове компания, подтикнат от надпреварата за контрол над това, което според много експерти ще бъде определящата иновация в тази ера на технологичната индустрия: генеративния ИИ, мощната нова технология, която захранва инструменти за ИИ като Bard.
Google вече изглеждаше малко по-бавна в тази надпревара, като се има предвид, че бяха изминали три месеца от пускането на ChatGPT, чатбот, разработен от стартъпа OpenAI от Сан Франциско в партньорство с Microsoft, който вече се гордее с не по-малко от 100 милиона потребители месечно.
Бързият и огромен успех на ChatGPT доведе до култура на по-голяма откритост в конкурента на Microsoft – Google, когато става въпрос за поемане на рискове с техните етични насоки, които са били усъвършенствани в продължение на години, за да гарантират, че техните технологии не причиняват проблеми на обществото.
Бързо напред до март и напрежението между скептиците и любителите на риска в индустрията се покачва. Повече от 1000 лидери и изследователи, сред които Илон Мъск и съоснователят на Apple Стив Возняк, призоваха за шестмесечна пауза в развитието на изкуствения интелект, заявявайки в публично писмо, че технологията е започнала да създава „дълбоки рискове за обществото и човечеството“
Рискува ли Google да пусне на пазара технология, която не разбира напълно? Може би. Въпреки че въпреки нарастващите опасения, свързани с развитието на изкуствения интелект, някои вътрешни хора в Google твърдят, че те вече са намалили много проблеми благодарение на това, че са изградили сложни системи за филтриране на неточна информация.
Струва си да се отбележи и контекстът около Бард: чатботът беше пуснат след години на вътрешни разногласия в Google по въпроса дали обществените ползи от генеративния ИИ надвишават рисковете от него. Нещо повече, дори много ентусиасти на ИИ не знаят, че Google вече е разработила Meena, подобен чатбот, още през 2020 г. – но в крайна сметка го е сметнала за твърде рисков, за да го пусне. Това със сигурност придава достоверност на номиналния ангажимент на Google да прави добро за обществото.
След пускането на ChatGPT на ръководителите на изследователската дейност в Google беше казано да ускорят проектите за изкуствен интелект, въпреки че мнозина смятаха, че това може да компрометира дългогодишните им стандарти за безопасност. Някои смятаха, че чатботовете могат да произвеждат невярна информация, да улеснят насилието след масов онлайн тормоз и дори да навредят на онези потребители, които станат емоционално зависими от тях. Въпреки това компанията продължи и пусна Бард в рамките на така наречения „ограничен експеримент“, като настояваше, че той е безопасен по силата на отказите, свързани с прилагането му, и обучението, необходимо за използването му.
Главният изпълнителен директор на Microsoft Сатя Надела направи залог на генеративния ИИ още в 2019, когато компанията му инвестира 1 млрд. долара в OpenAI, нейните разработчици на ChatGPT. Междувременно Службата за отговорен AI на Microsoft се зае с писането на политики за разработване на технологията, но много вътрешни хора смятат, че те не са били последователно прилагани или следвани. Освен това, въпреки собствения принцип на Microsoft за „прозрачност“, някои експерти по етика, работещи по ChatGPT, смятат, че са били държани в неведение относно това какви данни OpenAI използва за разработването на своите системи. А когато Google обяви плана си за интегриране на изкуствен интелект в своята търсачка след успеха на Bard, вътрешни хора в тази компания излязоха с критики към идеята заради склонността на чатботовете да разпространяват дезинформация.
Миналата есен Майкрософт започна да разбива „Етика и общество“, един от най-големите си екипи по технологична етика, който обучаваше и консултираше продуктовите лидери на компанията да проектират и изграждат отговорно. Малцината останали членове се присъединиха към ежедневните срещи с екипа на Bing, който се надпреварваше да пусне ChatGPT – и бяха шокирани от възможността потребителите да станат зависими от инструмента и да бъдат подведени от неточните му насоки. Тези опасения се засилваха от общуването от първо лице в ChatGPT и използването на емоджита, което според екипа щеше да накара много потребители да вярват, че общуват с човек.
През март „Етика и общество“ най-накрая беше напълно закрита. И тъй като Google и Microsoft продължават да пускат нови продукти седмица след седмица и се надпреварват да се надминават с все по-трескави и амбициозни планове за реализиране на визиите на съответните лидери за ИИ, Bard и ChatGPT очевидно са само началото на състезанието за ИИ, чиято среда и край засега са просто неизвестни.
За Pixated
Pixated е агенция за маркетинг на ефективността и уеб дизайн с доказан опит в увеличаването на някои от най-вълнуващите марки.
С екип от опитни вътрешни специалисти под ръка, Pixated е агенцията, която се занимава със създаването на висококонвертиращи кампании, насочени към генериране на най-добрата възвръщаемост на инвестициите за амбициозни марки по целия свят, като ги освобождава да се съсредоточат върху това, в което са добри.
