Кои са основните слабости на генеративния изкуствен интелект?

5 основни слабости на генеративния изкуствен интелект

Експертите са изследвали обстойно генеративния ИИ. В тази статия се изтъкват основните слабости на генеративния ИИ, като се дава представа за неговите ограничения въз основа на изследвания.

Латаня Суини, професор по цифрово управление в Харвард, предполага, че в бъдеще над 90% от съдържанието ще се генерира от изкуствен интелект и ботове.

Последните нововъведения в областта на изкуствения интелект предефинират начина, по който взаимодействаме с нашите светове. Латаня също така повтори, че лидерите в областта на защитата на личните данни и новите технологии са изследвали ограниченията и развитието на ИИ и са открили как Chatgpt предвещава сериозна промяна в начина, по който използваме интернет и общуваме помежду си и със света като цяло.

Проучване от 2024 г. е направило извадка от общественото мнение за това дали съдържанието, генерирано от ИИ, е по-добро по отношение на качеството от това, генерирано от хора. Резултатът показа, че над 50 % от анкетираните подкрепят съдържанието, създадено от човека. Също така, един от всеки 5 интервюирани лица се придържа към мнението, че съдържанието, генерирано от ИИ, е малко по-добро или много по-добро от произведенията, създадени от човека.

Искаме да проучим страховете и опасенията на 4 от 5 интервюирани лица в това проучване, като се опираме на друго проучване, проведено от Microsoft, което подчерта някои недостатъци, свързани с генериращия ИИ .

За подчертаване, генеративният ИИ е аспект на ИИ, който използва големи модели на ИИ или модели на основата на ИИ, за да създава ново съдържание, като например видеоклипове, аудио, музика, изображения и текст. Тази технология може да реализира задачи от типа out-of-the-box по-бързо от хората, да обобщава съдържание, да отговаря на въпроси, да класифицира и да прави много други неща.

Както при всяка друга иновация, платформите за генеративен ИИ, като Midjourney, Chatgpt, Meta AI и Claude, могат да подобрят производителността, а могат и да бъдат използвани неправомерно или за измами. Проучването на Microsoft разкри, че интернет потребителите по целия свят са притеснени от фалшификати, злоупотреби и измами. Нека обърнем внимание на някои от тези недостатъци и да проучим някои случаи, в които те са се проявили, заедно с последствията.

Измами с помощта на изкуствен интелект

Една от всеки четири компании е забранила използването на генеративен ИИ на работното място.

Въпреки това киберпрестъпниците упорито подмамват служителите да споделят чувствителна информация или да извършат измамно плащане. Престъпниците могат да използват ChatGPT или неговия дерайлирал брат близнак в тъмната мрежа FraudGPT, за да изработват фалшиви идентификационни номера и истински видеоклипове с финансови отчети или дори да използват гласа и образа на ръководител на компания, за да създадат убедителни дълбоки фалшификати.

Що се отнася до статистическите данни за това ново разкритие, те са печални. През 2022 г. 65% от анкетираните са имали случаи, в които компаниите им са станали жертва на действителни или опити за измами с плащания. От тези, които са загубили пари, 71% са били измамени чрез електронна поща. Атаката е била насочена към големи организации с годишен оборот от 1 млрд. долара въз основа на проучването, проведено от Асоциацията на финансовите специалисти, с измами по имейл.

Фишингът по електронната поща е една от най-разпространените форми на измама по електронната поща. Преди навлизането на генеративния изкуствен интелект можеше лесно да се разпознае фишинг имейл с печатна грешка. Точно сега ще ви е необходимо нещо повече от интуиция и вътрешно усещане, за да не станете жертва на перфектно изработени фалшиви имейли, които изглеждат като надежден източник. Говоря за убедително изглеждащи уебсайтове като eBay, Amazon или Chase. Връзката във фалшивото електронно писмо обикновено насочва жертвите да влязат в системата и да споделят поверителни данни. След като тази информация за жертвите попадне в ръцете на киберпрестъпниците, те могат да търгуват с личните данни, да ги използват за извършване на други гнусни престъпления или да изпразнят банковите сметки на жертвите.

Спиър фишингът е друг вид имейл измама, но той е по-специфичен. Може да не попаднете на обща имейл измама. Все пак, когато видите имейл, в който заплашващият се обръща към вас или вашата организация, след като е проучил длъжностното ви наименование и имената на вашия мениджър, ръководители или колеги, има по-голяма склонност да се поддадете на него.

Тези измами не са нови, но в случая става въпрос за това, че генеративният ИИ затруднява разграничаването на автентичното от фалшивото. Отминаха дните, когато можехте да откриете фишинг имейлите по изкривените шрифтове или странния почерк. Генериращият изкуствен интелект позволява на престъпниците да се представят за ръководители на компании и да похитят гласа им, за да го използват във фалшив телефонен или видео разговор.

Такъв е случаят с неотдавнашен инцидент в Хонконг, когато финансов директор си е мислел, че е получил имейл от главен финансов директор, базиран в Обединеното кралство, с искане за прехвърляне на 25,6 млн. долара. Макар че първоначално той подозирал, че това е фишинг имейл, съмненията му се разсеяли, след като видял финансовия директор и още няколко сътрудници, които можел да разпознае във видеото. Е, оказало се, че обаждането е било дълбоко фалшифицирано. Той научил за това, след като проверил в централата, но дотогава трансферът вече бил извършен. Кристофър Бъд, директор в Sophos, фирма за киберсигурност, описва проучването и нивото на работа, вложени в тази измама, като „доста впечатляващи“.

Виждали сме и дълбоки фалшификати на няколко известни личности. Няма да забравим как дълбоко фалшивият Елон Мъск беше използван за популяризиране на платформа, която никога не е съществувала, в една фалшива инвестиционна схема, или пък това на Гейл Кинг, водеща на новини в CBS News, Тъкър Карлсън, бивш водещ на Fox News, и Бил Махер , водещ на токшоу, всички те целенасочено популяризиращи новата инвестиционна платформа на Мъск. Интересно е, че видеоклиповете станаха вирусни в YouTube, Facebook и TikTok.

Експертите от индустрията поддържат тезата, че хората могат бързо да генерират синтетични самоличности, като използват генеративен ИИ. Днес киберпрестъпниците могат да разчитат на голяма част от информацията в интернет и с помощта на генеративния ИИ да създадат фишинг имейл, който ще разбие банковата ви сметка. Трябва ли да се притесняваме от това?

Генеративният ИИ е халюцинация.

Големите езикови модели (ГММ) не са безпогрешни, но все пак ще разгледаме няколко случая, при които те предоставят отговори, които изглеждат автентични, но са били просто изфабрикувани данни.

Халюцинациите на ИИ са подвеждащи или неверни резултати, генерирани от моделите на ИИ. Шестдесет и един процента от анкетираните в международно проучване на TELUS споделят загриженост относно тенденцията генеративните ИИ да продължават да раздават и разпространяват неточна информация. И така, генеративният ИАИ може да произведе 5 резултата, а 2 от тях са изфабрикувани и откровено неверни или безсмислени. Адвокат от Ню Йорк е използвал разговорен чатбот, за да извърши правно проучване, докато е представлявал клиент за иск за наранявания. Федералният съдия, наблюдаващ делото, открил шест фалшиви иска от прецедентите, цитирани от адвоката в неговата справка. Вълнуващата част от историята беше, че чатботът измисли фалшивия иск и посочи къде могат да бъдат намерени исковете в правните бази данни. Ето защо наличието на предпазни огради за справяне с халюцинациите на GenAI не е опция, а е задължително.

Можем да създадем предпазни огради, когато разберем как възникват халюцинациите на ИИ. Експертите в областта на изкуствения интелект може и да не разполагат с действителни причини за халюцинациите на ИИ, но са идентифицирани няколко задействащи фактора.

Ако обучавате модел с недостатъчни или входни значителни пропуски, които кулминират в крайни случаи, с които моделът не е свикнал, могат да възникнат халюцинации. Да речем, че искате да изготвите договор; генеративен ИИ, обучен с данни за договори от сектора на здравеопазването, може да се нуждае от повече излагане на технически жаргон, концепции и термини в областта на финансовите услуги. Генериращият ИИ работи, като създава отговор въз основа на подкана. Качеството на подкана определя подкана, която генерирате: „боклукът влиза, боклукът излиза“. Знаете ли, че понякога, ако GenAi се нуждае от помощ за разбиране на подкана, той все пак ще ви предостави отговор, използвайки недостатъчните данни, на които е бил обучен, като по този начин ще произведе грешен и вреден резултат?

Друг фактор е начинът, по който се кодират подканите за обучение и текстовете. Обикновено LLM свързват термините с набор от числа, наречени векторни кодирания, и те имат някои плюсове. Една дума като „банка“ има множество значения. Тя може да означава финансова институция или банка; Този тип думи могат да имат кодиране за всяко значение, за да се намали двусмислието. Всяка грешка при кодирането и декодирането на представи и текст може да доведе до халюцинации на генеративния ИИ.

ГИМ трябва да се обучават с точни и достатъчни данни, а заинтересованите страни трябва да приемат прозрачността и да установят контрол на качеството, за да се предотвратят халюцинациите.

Генеративният ИИ подпомага създаването на съдържание, свързано със сексуално насилие над деца.

Може да искате да не се съгласите с това твърдение, но всички можем да се съгласим, че генериращият ИАИ опростява начина, по който хищниците бързо създават съдържание със сексуална злоупотреба с деца (CSAC) в голям мащаб. Те често използват оригинални снимки и видеоклипове и ги адаптират, за да генерират нов материал за злоупотреба. Те могат дори да превърнат доброкачественото съдържание на деца и да го сексуализират, за да създадат CSAC, генериран от ИИ.

През януари Националният център за изчезнали и експлоатирани деца на САЩ съобщи, че е получил 4700 сигнала за генерирано от ИИ съдържание, което изобразява сексуална експлоатация на деца. Организацията очаква тази цифра да нарасне с развитието на ИИ.

Детските хищници могат да използват генериращ ИИ, за да измислят нови начини за виктимизиране и повторно виктимизиране на деца. Те могат да генерират нови изображения, които съответстват на външния вид на детето, и да проектират нови пози, еротично съдържание или мащабни усилия за сексуално изнудване. Технологията може също така да създаде лесно за използване ръководство за лоши актьори за това как да упражняват сексуално насилие и принуда над дете или да унищожават опити и да изкривяват артефакти на насилие.

Генеративният ИИ засилва предубедеността.

Хората са естествено пристрастни. Данните, използвани при обучението на моделите на LLM, идват от хора. Какво очаквате? Ако хората са пристрастни, очаквайте най-лошото от генеративния ИИ.

Стабилната дифузия генерира 500 изображения въз основа на писмени подсказки. Резултатът беше пълно изкривяване на реалността. Анализът на резултата показа, че стабилната дифузия от стабилността на ИИ изведе различията между половете и расите отвъд крайностите повече, отколкото се получава в реалния живот.

Харесва ми начинът, по който един учен изследовател, Саша Лучин, го е озаглавил. Тя каза, че ние проектираме един мироглед в свят с разнообразни култури и няколко визуални идентичности. Например, ако обучавате моделите на изкуствения интелект с твърдения като: „черното е синоним на престъпление, а жените са медицински сестри, а не лекари“, в крайна сметка ще се стигне до засилване на тези предразсъдъци.

Генеративният ИИ застрашава неприкосновеността на личните данни.

Защитата на личните данни е сериозен проблем въпреки забележителния напредък в областта на генеративния ИИ. Какво можете да очаквате от модел, който не е обучен с алгоритми, запазващи неприкосновеността на личния живот.

Данните, генерирани от модела на ИИ, са нови и изглеждат като тези, които той е използвал по време на обучението. Ако данните за обучение включват чувствителна информация, има вероятност да се нарушат чувствителните данни на дадено лице, като се има предвид, че базите данни за обучение включват личните данни на всяко лице, без да се иска изрично съгласие.

Обучението на LLM включва използването на милиони думи върху различни задачи на естествен език. Обърнете внимание, че LLM са подмножество на GenAI, а проучванията разкриват, че въпреки възможността за запомняне на огромни обеми от данни, включително поверителна информация, те все още представляват риск за неприкосновеността на личния живот , до който участниците в заплахите могат да получат достъп, за да извършват нечестни дейности.

Ексфилтрацията е форма на атака, която влошава цялата ситуация. Изследванията показват, че неоторизирано лице може да получи достъп до набори от данни за обучение, да ги прехвърли, мигрира или открадне. Друг ракурс е разкриването на чувствителна информация при създаването на подсказки.

Сега, когато предприятията синхронизират непроверени приложения, които използват GenAI, в своите бизнес операции и системи, има повече рискове от нарушаване на съответствието и нарушаване на данните.

Изводът е, че ако искаме да се справим с всички тези слабости и да извлечем максимални ползи от наличието на технологията в наше време, всяка заинтересована страна трябва да прегърне съгласувани усилия, за да гарантира, че това, което е създадено за добро, няма да се окаже саморазрушителен инструмент . От нас зависи да направим света по-добро и по-безопасно място.

Препратки

Cisco, (2024). More than 1 in 4 organizations banned use of GenAI over privacy and data security risks. Available at: https://newsroom.cisco.com/c/r/newsroom/en/us/a/y2024/m01/organizations-ban-use-of-generative-ai-over-data-privacy-security-cisco -study.html (Accessed: 02 April 2024)

Collier, K. (2023). Deepfake scams have arrived: Fake videos spread on Facebook, TikTok and YouTube . Available at https://www.nbcnews.com/tech/tech-news/deepfake-scams-arrived-fake-videos-spread-facebook-tiktok-youtube-rcna101415 (Accessed: 02 April 2024)

Kong, H., (2024). Everyone looked real’: multinational firm’s Hong Kong office loses HK$200 million after scammers stage deepfake video meeting . Available at https://www.scmp.com/news/hong-kong/law-and-crime/article/3250851/everyone-looked-real-multinational-firms-hong-kong-office-loses-hk200-million- after-scammers-stage (Accessed: 02 April 2024)

Missing Kids, (2024). Generative AI CSAM is CSAM . Available at: https://www.missingkids.org/blog/2024/generative-ai-csam-is-csam (Accessed: 02 April 2024)

Nicoletti, L. & Bass, D. (2023). HUMANS ARE BIASED. GENERATIVE AI IS EVEN WORSE . Available at: https://www.bloomberg.com/graphics/2023-generative-ai-bias/ (Accessed: 02 April 2024)

Rubenstein, A. (2023). ChatGPT is not quite ready to be your lawyer . Available at: https://www.morningbrew.com/daily/stories/2023/05/29/chatgpt-not-lawyer?mbcid=31642653.1628960&mblid=407edcf12ec0&mid=964088404848b7c2f4a8ea179e251bd1&utm_campaign=mb&utm_medium=newsletter&utm_source=morning_brew (Accessed: 02 April 2024)

Sheng, E. (2024). Generative AI financial scammers are getting very good at duping work emails . Available at: https://www.cnbc.com/2024/02/14/gen-ai-financial-scams-are-getting-very-good-at-duping-work-email.html (Accessed: 02 April 2024 )

Statista, (2024). Opinion of AI-generated content being better than human-created content among consumers in the United States as of 2024. Available at: https://www.statista.com/statistics/1461390/ai-generated-content-better-than- human-created-content/ (Accessed: 02 April 2024)

Tellux, (2023). Generative AI hallucinations: Why they occur and how to prevent them . Available at: https://www.telusinternational.com/insights/ai-data/article/generative-ai-hallucinations (Accessed: 02 April 2024)

Thorn, (2023) Thorn and All Tech Is Human Forge Generative AI Principles with AI Leaders to Enact Strong Child Safety Commitments. Available at: https://www.thorn.org/blog/generative-ai-principles/ (Accessed: 02 April 2024)

University of Sheffield, (nd). University Library: Generative AI literacy . Available at: https://sheffield.libguides.com/genai/perspectives (Accessed: 02 April 2024)

Usenix, (2021). Extracting training data from large language models. This paper is included in the Proceedings of the 30th USENIX Security Symposium. Available at: https://www.usenix.org/system/files/sec21-carlini-extracting.pdf

Falode, E. (2023). Is generative AI a threat to cybersecurity? Elijah Falode. https://elijahfalode.com/is-generative-ai-a-threat-to-cybersecurity/ (Accessed: 05 May 2024)

Elijah is an expert tech content writer and a sought-after technology ebook ghostwriter with over ten years of experience helping businesses become visible and stay secure online. He holds the Cybersecurity & Infrastructure Security Agency's Certificates on the cybersecurity of industrial control systems(ICS) and a Crisis Management Certificate from the London School of Public Relations Limited. He writes blog articles, books, whitepapers, and web copies on digital transformation, blockchain technology, information security, governance, risk and compliance (GRC), emerging technologies, and NFTs. He currently provides cybersecurity content development and SEO services for Cybersecurity/SaaS/B2B companies via Upwork and Fiverr. He is also the Editor at Claribel.net.

Comments are closed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More