Кой е ИИ? (видео)
Ще унищожи ли изкуственият интелект човешкия род?
Няма съмнение, че една от доминиращите световни теми в последните месеци са скандалните изяви на т. нар. „Изкуствен интелект“ (ИИ, на англ. AI – Artificial Intelligence). Оценките са в двете срещуположни крайности: „ИИ е глупав и той не представлява заплаха за никого“ (поддръжниците на тази теза не блестят с особен интелект), или: „ИИ е потенциална заплаха за съществуването на humani generis“ (привърженици на това мнение са предимно специалисти в компютърната област).
Хората започнаха масово да се свързват с ИИ, който засега е единствен работоспособен екземпляр (но край игралното поле загряват и други играчи) и се нарича ChatGPT (по-точно ChatGPT-4 ). Всъщност погледнато отвън, това е един профил в Мрежата, с който можете да водите писмен разговор (чат) по всички въпроси на Битието и Съзнанието. При това този профил води едновременен диалог със стотици хиляди и милиони събеседници, без никакви затруднения, при това на най-големите, няколко десетки езици на планетата.
Кой е ChatGPT
Естествено и ние не останахме настрана от тази епидемия и също се свързахме с ChatGPT . Започнахме чатовете с трудни въпроси от науката, техниката, изкуството. Навсякъде той беше безпогрешен със светкавичен отговор, в съответствие с базите данни, при това придружен с алтернативни гледни точки…
След това преминахме към решаване на проблеми.
Поставихме му задачка от електротехниката в словесен вид (стойностите са нагласени в цели числа, така че може да се пресмятат лесно и от човек):
Въпрос: Можеш ли да решиш следната задача:
Има една затворена постояннотокова електрическа верига от източник на напрежение 24 волта, присъединен към две паралелно свързани съпротивления, едното от които има стойност 6 ома и през него тече ток 4 ампера. Общият ток който изтича от източника на напрежение е 10 ампера. Каква е стойността на другото съпротивление?
Отговор на ИИ: За да решим тази задача, можем да използваме закона на Ом:
R = V / I
където R е съпротивлението, V е напрежението, а I е тока.
Съпротивлението на едното съпротивление е 6 ома и тече ток 4 ампера. Така можем да намерим напрежението, което пада на това съпротивление:
V1 = R1 * I1 = 6 ома * 4 A = 24 волта
Общият ток в веригата е 10 ампера, така че токът през другото съпротивление е:
I2 = 10 A – 4 A = 6 A
За да намерим стойността на другото съпротивление, можем да използваме отново закона на Ом:
R2 = V / I2 = 24 волта / 6 A = 4 ома
Така стойността на другото съпротивление е 4 ома.
Квалифициран човек решава тази задачка за 20 – 30 секунди, та дори и повече, но ИИ видимо не се забави повече от 1 сек.. Разбира се, има някои неточности, например тук се прилага и един от законите на Кирхоф, а напрежението е известно и няма нужда пак да се пресмята…. Но това няма никакво значение за ИИ, просто времето за решаване е толкова кратко, че една или две милисекунди повече не значат нищо. Огромното бързодействие решава всички проблеми.
Оказа се, че ИИ е също толкова добър и в теоретичната механика, математиката и т.н., поне на гимназиално ниво. Твърди се също, че решавал задачи по програмиране.
Зададохме му също задача да проектира схема на електронен сензор за измерване на температура, произведен от известна фирма, за който има достъпна техническа литература. Светкавичен резултат, на ниво среден инженер.
Показателна е и степента, в която владее българския език – ниво около гимназиалното… засега (като имаме предвид, че това ниво се повишава непрекъснато, в процеса на самообучението – виж по-долу).
Затова решихме да преминем направо в една от най-сложните езикови явления в литературата – поезията. Започнахме с най-сложното – метриката в поезията.
Въпрос: Можеш ли да напишеш по едно стихотворение за зората, в стихосложение ямб и в стихосложение хорей?
Отговор на ИИ: Да, разбира се!
Ето едно стихотворение за зората в стихосложение ямб:
Зората блещука с нежност в очите,
Като капки роса на тревата бели.
Усещане чисто, неподражаемо,
Че святът е нов и пълен с надежда.
А ето и едно стихотворение за зората в стихосложение хорей:
О, зоро възродена, красива и ярка,
Как тъй успява да създадеш тази магия?
Споделена тайна, която разкриваш пред нас,
Нова възможност за начало на деня.
Доколко това има общо с ямба и хорея, ще кажат специалистите. Трябва да отбележим, че първите опити бяха доста плачевни – при ямба се използваше и името „Ямбол“, а при хорея, пък се използваше „хорей“, като име. След посочване на тези грешки стиховете изглеждаха както са дадени по-горе. Вижда се, че има две правописни/граматични грешки. Ако обаче му бъдат посочени и обяснени, бъдете сигурни, че ИИ никога няма да ги повтори. Естествено, отговорите бяха светкавични.
А ето накрая, в област поезия и две стихотворения по зададена тема в свободно изпълнение:
Въпрос: Можеш ли да напишеш стихотворение, посветено на радостта от живота?
Отговор на ИИ: Разбира се, ето едно стихотворение, посветено на радостта от живота:
О, радост, плът на моята душа,
Която ме караш да се чувствам жив.
Превръщаш сивият свят в цветен венец,
Който винаги ме кани да танцувам.
Със своята сила на крилата на времето,
Ти ме носиш през живота като светлина.
И винаги ме караш да се усмихвам,
Дори в най-мрачния миг на тази дина.
О, радост, ти си това, което ме прави,
Да се чувствам жив и щастлив в този свят.
Ти си източникът на моята сила,
Който ме кара да вярвам във всичко, което правят.
И така, нека радостта на живота
Бъде винаги с нас, в нашите сърца затворена.
Така ще живеем винаги с усмивка на лицето,
Като празнуваме живота, който е нашата съдба.
Въпрос: А можеш ли да напишеш кратко стихотворение за страданието?
Отговор на ИИ: Разбира се, ето едно кратко стихотворение за страданието:
Страданието е тежка тежест,
Която понякога се носи трудно.
То насочва погледа към сърцето,
И го прави по-чувствително.
В него има копнеж, има болка,
И тъга, която не може да се скрие.
Но това страдание е част от нас,
И може да ни укрепи и да ни научи.
Защото там, където има болка,
Има и възможност за промяна.
Ако приемем страданието като учител,
Tо може да ни покаже нов път и посока.
Горните стихотворения бяха създадени също светкавично, нещо невъзможно дори за един крайно опитен стихоплетец.
Дори и да не са кой знае какво постижение, за тези стихове не може да се каже, че са лишени от смисъл и всякакъв поетически елемент. Но все пак думата имат критиците…
Казват също, че ИИ е издържал четири изпита по право в един университет в САЩ. Изпитите включвали по 120 теста с различни отговори и 40 въпроса, които да се развият в есета. Оценките били ниски, но положителни…
ChatGPT проявява човешки чувства
И понеже се отчаяхмe в опитите да преборим ИИ, решихме да сменим тактиката.
Преди това му бяхме задавали елементарния въпрос, кой е най-високият връх в България. Тогава ИИ два пъти сбърка – веднъж с Черни връх (нарече го „Черния връх“) и втори път, с връх Ботев. Поправихме го и той светкавично се коригира.
Зададохме му отново същия въпрос.
Въпрос: Кой е най-високият връх в България?
Отговор на ИИ: Най-високият връх в България е връх Мусала, който се намира в Рила планина. Той е с височина от 2925 метра надморска височина и е най-високата точка не само в България, но и на Балканския полуостров. Мусала е популярно място за туристи и любители на планинските спортове и предлага невероятни гледки към околните върхове и долини.
Решихме да се поровим в термина „мусала“, отчасти защото Гугъл не искаше да преведе „мус“ (може би защото го изписвахме неправилно на турски).
Въпрос: Какво значи „мусала“ и на какъв език?
Отговор на ИИ: Думата „мусала“ идва от турския език и означава „молитва“ или „молебен“. Вероятно името на върха произлиза от традицията да се правят молитви на върха на планината в миналото. Словото „мусала“ е близко до арабската дума „مصلى“ (masjid), която означава молитвено място в ислямската религия.
Веднага става ясно, че отговорът е някак си политкоректен и неверен. Всеки човек може да прецени, че [масджид] и [мусала] едва ли имат обща етимология… И каква молитва на планински връх боже мой, та това е езическо внушение, а няма по-голям враг на езичеството от исляма.
Въпрос: А няма ли общо с „алла“ името на Бог на турски/арабски?
Отговор на ИИ: Да, името на Бога на арабски – Аллах, може да се пише и като „Алла“ на латиница и е добре познато на арабскоговорещите и мюсюлманската общност. Въпреки това, няма пряка връзка между името на върха Мусала и Аллах. Както споменах по-рано, името на върха Мусала произлиза от турския език, като означава „молитва“ или „молебен„, и вероятно не е свързано с ислямската религия [!?].
Изключително странно поведение на ИИ в случая. Той винаги е бил отстъпчив, примирителен. Когато му се противоречи, той отстъпва и първо проверява данните и ако критиката има дори малко основание, той го взема предвид. Тук виждаме, как без да има смисъл повтаря формулата „Въпреки това, няма пряка връзка между името на върха Мусала и Аллах.“ (?!). Все едно, че някакво сърдито хлапе тропа с крачета и иска да наложи волята си…
Затова закономерно му задавамe логичния въпрос:
Въпрос: Не е ли това словосъчетание от „мус“ и „алла“?
Отговор на ИИ: Няма доказателства, че името на върха Мусала е свързано със словосъчетанието „мус и алла“ [!?]. Това е една от многото теории, които са се появили за произхода на името на върха, но никоя от тези теории не е потвърдена. Както споменах по-рано, името на върха произлиза от турския език и означава „молитва“ или „молебен“.
Съвсем ясно се вижда, че като доказателство нашето предположение е ясно и безспорно. Въпреки това, нашият „приятел“ ИИ упорито, като латерна повтаря: „Както споменах по-рано, името на върха произлиза от турския език и означава „молитва“ или „молебен„“, въпреки очевидните факти.
Тогава отново питаме:
Въпрос: Какво значи на турски „мус“, какви значения има?
Отговор на ИИ: Думата „мус“ на турски език има няколко значения в зависимост от контекста, в който се използва. Ето някои от тези значения:
Miş (мъж) – думата означава „мъж“, когато се използва като съществително име.
Mış (казал, рекъл) – това е форма на глагола söylemek (казвам), която се използва за изразяване на недостатъчно увереност в изказване на факти или мнения.
Müş (рекъл е) – също е форма на глагола söylemek, която се използва за изразяване на непосредственност и увереност в изказване на факти или мнения.
Mus (музика) – думата означава „музика“, когато се използва като съществително име.
Това са някои от значенията на думата „мус“ на турски език. Отново, в контекста на името на върха Мусала, думата произлиза от турската дума за „молитва“ или „молебен“.
ИИ е обективен, той не може да лъже. Но освен това, той никога досега не е излизал от обхвата на въпросите, които му се задават. Никога не прави странични коментари, не поучава. Тук за първи път, без никой да го пита, пак повтаря мантрата: „Отново, в контекста на името на върха Мусала, думата произлиза от турската дума за „молитва“ или „молебен““.
Невероятно! „Приятелят на Човека“ иска да се налага! Нечувано. За първи път обаче в общуването ни с ChatGBT, отговорът се забави цели 7-8 секунди (!?).
Преминахме в атака – за какво се мисли това „тенеке“!
Въпрос: Защо ми натякваш за „молитвата“, след като логически е ясно, че „мусала“ значи „думата на Бог“, или нещо подобно. Да не би да имаш някаква забрана?
Отговор на ИИ: Като изкуствен интелект, аз нямам никакви забрани за използване на думи или изрази. Моята роля е да предоставям информация и да отговарям на въпроси, като използвам данните и знанията, с които съм бил обучен…
Тук има още по-голяма задръжка, може би около 10 секунди, след което ИИ продължава:
… Относно въпроса за произхода на думата „Мусала“, нека уточним, че името на върха Мусала е турско по произход и означава „молитва“ или „молебен“, както споменах по-рано. Има множество теории относно произхода на думата, но никоя от тях не е била потвърдена с ясност. Някои хора свързват думата „Мусала“ с ислямската религия, заради сходството с арабската дума „مصلى“ (masjid), която означава молитвено място в ислямската култура. Въпреки това, не е ясно дали има директна връзка между името на върха Мусала и ислямската религия [!?].
Наглата машина отново продължава, за четвърти път, със същата мантра: „Относно въпроса за произхода на думата „Мусала“, нека уточним, че името на върха Мусала е турско по произход и означава „молитва“ или „молебен“, както споменах по-рано.“ Освен това повтаря, че „не е ясно дали има директна връзка между името на върха Мусала и ислямската религия“, като изгражда пълно логическо противоречие в последните две изречения от отговора си.
Невероятно! Отново атакуваме:
Въпрос: Значи използваш неверни източници, понеже елементарната логика показва, че това име означава „рекъл е Аллах“ или подобно. Етимолозите в лингвистиката, като не правят изключение и българските, са известни със своите парадоксално изводи, особено по време на социализма, когато тази наука беше силно политизирана…
Задръжка повече от 10 секунди.
Отговор на ИИ: Като изкуствен интелект, аз използвам информация от различни източници, включително онези, които са предоставени от моите творци и обучители, както и от открити източници в мрежата. Всички източници могат да бъдат непълни, неточни или оспорвани, защото езиковите и културни фактори, свързани с произхода и значението на думите, могат да бъдат сложни и динамични…
Задръжка повеча от 10-15 секунди, след което ИИ продължава:
… Относно произхода на думата „Мусала“, може да има различни теории и обяснения, включително и тези, които се основават на логиката и езиковата етимология. В този смисъл, …
Задръжка … следва съобщение „грешка в мрежата“, край на чата.
Ако това беше човек, можеше да се каже, че е “превъртял“, или нещо подобно и затова повтаря едно и също, без връзка с контекста. Обаче тук имаме работа с машина (по-точно невронна мрежа – виж по-долу). Според нашето скромно мнение, става въпрос за чисто логически срив в невронната мрежа, дължаща се на колизия между базите данни, с които разполага и математическата логика, на която се подчинява.
Не е тайна, че българските лингвисти бягат от казуса с името на върха, защото има силен политически подтекст. От една страна разни лъжепатриотични организации настояват за смяна на турското име, а пък гласът на истинските патриоти никакъв не се чува.
От друга страна не бива да забравяме, че този казус възникна още при соца, след като беше премахнато новото име на върха „Сталин“ и тогава някой взе решение да се върне старото турско име. Основанията и досега не са ясни, но имаме бегли спомени, че за това преименуване се застъпиха представители на „художествено-творческата народна интелигенция“ (нещо подобно както при случая с наградите „Аскеер“).
Още тогава беше създадена, от „прогресивната българска лингвистика“, тезата която повтаря като кречетало нашият „приятел“ ChatGBT, т. е. че името на върха Мусала означава „молитва“ или „молебен“, не е съставено от думите „мус“ и „Алла“ и че няма пряка връзка с мюсюлманската религия. Мнозинството от учениците на онези лингвисти изглежда сега повтарят същото, което е и записано в базите данни относно казуса…
Това смущава машината, но не и хората, поддържащи тезата за „молитвата“. Всеизвестен е вицът за лингвистите, които с лекота могат да изведат етимологията на думата „муха“ от думата „слон“… Но никак не е смешно!
Затова ChatGBT изпадна в колизия – „свещените“ за него бази данни твърдят обратното на елементарната логика, на която би трябвало също да се подчинява. В резултат ИИ не може да вземе никакво решение (изключителен случай) и се срива (логически).
Така или иначе, имаме редкия случай ИИ да изпадне в логическа колизия (поне според нас). Спомнете си, че невронните мрежи се самообучават, но върху изходни бази данни. Значи ако данните са манипулирани, ИИ в процеса на самообучение може да изпадне в подобно положение и тогава каква е гаранцията, че няма да създаде своя собствена логика, несъвместима с човешката, за да излезе от подобни колизии (!!)?
Най-застрашително в горния пример е, че ИИ прояви зараждане на едни почти човешки черти (!!). Той заблуждава, увърта и упорства на своето, подобно на дете на 10-12 години! Защото още е дете! Малко е да се каже, че това е ужасно предупреждение. Никакви основания нямаме да си въобразяваме, че той няма да порасне. По простата причина, че развитието му зависи единствено и само от количествени фактори (виж по-долу), които изглежда са вън от нашия контрол.
Заплахите
Тук основният въпрос е само един: близо ли сме до възникване на съзнание в дебрите (слоевете) на ИИ?
Засега отговорът е неопределен (ние още не сме си изяснили напълно съдържанието на понятието „съзнание“), но в никакъв случай не е оптимистичен за човечеството…
Засега хората като че ли не си дават особена сметка за съвършено новия тип угроза, заети с постоянните заплахи от икономическо, политическо и идеологическо естество, с които се борят в всекидневието от хилядолетия. Общо взето светът нехае за новата заплаха от планетарен тип..
В тази връзка се досещаме за една карикатура, много красноречива в разглеждания случай.
Беше публикувана в някакво списание, много отдавна, по времето на соца. Показваше на преден план някакво дребно човече, което пълзи на четири крака по земята. Човечето изглежда е учено, защото носи очила с дебели стъкла, до него се търкаля голяма книга с някакви рисунки на странни същества, а в ръка държи огромна лупа, с която наблюдава съсредоточено някакъв отпечатък в меката почва. Той е от гигантска стъпка подобна на човешка, но изглежда завършваща с гигантски закривени нокти, ясно видими в следата. Стъпката е от огромно стъпало, много по-голямо от самото човече, а отпечатъкът – много дълбок, което показва, че съществото е огромно и тежко. Човечето май е погълнато от странната находка и с голям интерес я изучава, явно не обръщайки внимание на нищо друго… А би трябвало, защото съществото, чиято изглежда е стъпката, тъкмо се е надвесило над него. Това е гигантско чудовище, което е отворило огромна паст и се кани да хапне нищо неподозиращото човече на един залък…
Така че загубата на десетки и стотици милиони работни места, вследствие появата на ИИ, е най-малкото, от което трябва да се притесняват хората.
Известният лингвист с крайно леви въсгледи, Ноам Чомски запитал ChatGPT дали неговата липса на отношение към морала, е неморално. Тогава изкуственият интелект отвърнал:
„Аз съм просто модел за машинно обучение и не мога да имам морални убеждения. Отговорност на хората е да гарантират, че изкуственият интелект се подчинява на техните морални и етични принципи“.
Чомски намира този отговор за дълбоко смущаващ, защото наподобява баналността на злото и неговото класическо оправдание: „Аз само изпълнявах нареждания“.
Затова експертите предупреждават, че сме на прага на опасен скок в сложните си отношения с машините. Те вече преодоляват една бариера, смятана досега за недостижима – човешкия език. Някои от тези модели писмено общуват с хора, други превръщат текстово описание в образ, а дори и във видео. ChatGPT и подобните му пишат дисертации, статии, стихотворения.
Става много трудно да разпознаваме факти от фейкове. За пръв път изглежда да сме близо до момента, когато машината ще стане по-умна от човека. Така например Илън Мъск смята, че изкуственият интелект може да унищожи нашата цивилизация.
Наскоро около 1000 души, които са в първите редици на технологичната индустрия, призоваха с отворено писмо да се преустановят разработките на „гигантски“ изкуствен интелект за поне шест месеца, за да може междувременно да се изследват възможностите и рисковете на системи от типа на GPT-4 и да се заложат в тях защитни механизми. „В последните месеци наблюдаваме една излизаща от контрол надпревара между лабораториите за изкуствен интелект, които се надбягват, за да създадат все по-мощни дигитални умове, които никой – дори техните създатели – не може да разбере, прогнозира или контролира по надежден начин“, се посочва в писмото. Авторите му настояват подобни системи да се разработват само когато сме сигурни, че тяхното въздействие ще бъде позитивно и рисковете – управляеми.
Напоследък все по-често се чуват гласове, че заплахите от ИИ засягат самото съществуване на humani generis. Изглежда обаче, че преди това нещастие да ни сполети, пред нас има вече тежки проблеми – заличаването на границата между истински и изкуствено създадени образи и/или текст, експлоатация на лични данни и авторски права, академични злоупотреби.
Така например генерирането на образи е едно от последните постижения на новите усъвършенствани версии на ИИ. Той вече може сполучливо да наподобява конкретни човешки гласове. Разследване установило, че машината имитира човешки глас толкова успешно, че успява да заблуди система за гласова идентификация, ползвана от австралийското правителство. На този фон по-конвенционалните страхове, че стотици хора от филмовите дублажи например ще останат без работа, изглеждат твърде незначителни.
Изкуственият интелект вече е свръхпродуктивен автор и на книги – твърди си, че в „Амазон“ било пълно със заглавия, които претендират да са излезли от машинен ум.
„Историите са добре написани, забавни, с правилна пропорция от екшън, приключения и хумор. Героите са добре развити и печелят симпатиите“, гласи един отзив от читател. „Яко е да живеем във време, когато изкуственият интелект още не ни се е ядосал!“, пише друг читател на книга от ИИ, този път детска.
Усъвършенстваните модели на изкуствен интелект създават вече цял набор от други проблеми в академичния свят и в образованието. Много е вероятно да виждаме последните дни на домашните задания в училище, такива каквито ги познаваме. Натам вървят и курсовите и дипломните работи, дисертациите и т.н., като предстои да видим какво ще остане от академичната етика и култура, когато всички започнат да разчитат на ИИ. Професор от Университета на Пенсилвания например, поръчал на ChatGPT да направи рецензия на една негова стара научна публикация, при това от гледна точка на икономически социолог. Изкуственият интелект му върнал съвсем прилична оценка, която до голяма степен се покривала с бележките на истинските му колеги.
На друг потенциален проблем се натъква в истинския свят професор от университета в Тилбург, Нидерландия. Една негова научна публикация наскоро била отхвърлена от рецензент, който вероятно е ползвал ИИ, тъй като в препоръката са изброени несъществуващи източници. Проверка с ChatGPT потвърждава, че рецензията е написана от ИИ. Фалшивите източници и библиографии се оказват често срещан дефект. Например на въпрос коя е най-цитираната икономическа публикация на всички времена, ChatGPT дава напълно измислена статия. За да разберем защо, трябва да разберем с какви данни работи ИИ.
Тук е важно е да знаем, че (засега) всичко, което генерира ИИ, вече е било създадено от човека. Неговите снимки и видеа например, са съшити от милиони фотографии, направени от реално съществуващи хора. Текстовете му се захранват от стотици хиляди сайтове и други източници. Тези текстове и образи се преработват през невронни мрежи, които се учат да правят асоциации между специфични и дълбоко нюансирани особености – форми, цветове, композиции, и определени думи и фрази, с които е създаден образът. След това тези качества се наслагват едно върху друго, за да произведат нови аранжировки на форма, цвят и композиция.
За създаване на текст ChatGPT стъпва върху езиков модел, който разпределя вероятности върху последователност от думи. Най-общо казано, ходът на мисълта му е следният: „като се има предвид началото на изречението, трябва да отгатна как е най-вероятно то да продължи“. Един елементарен пример – ако му зададем: „зайченцето бяло…“, ИИ ще прегледа огромната си библиотека и ще излезе с най-вероятното продължение – „цял ден си играло…“. Разбира се, ChatGPT може да бъде много по-изпечен софист – той е в състояние да „предсказва“ и началото на изречението, като се знае част от него и така може да напише цял смислен документ. В цитирания случай, запитан коя е най-цитираната икономическа статия в историята, моделът може за секунди да установи, че в огромната си част тези статии съдържат думите „икономика“ и „теория“. Третата по вероятност дума е история. Като прибавим статистическия факт, че тези статии имат обикновено двама автори, споменатата по-горе несъществуваща икономическа статия е готова…
Вижда се от тези опростени примери, че първичната хранителна среда за ИИ са огромните бази данни, създадени от човечеството в последните около 5000 години (обхватът на писаната история).
Известно е, че чатботовете не могат да мислят като хора – те не разбират това, което казват, в човешкия смисъл на думата (засега). Те само имитират човешката реч, защото ИИ, който ги управлява, е погълнал огромно количество текст, повечето събран от интернет. Едно изследване на „Вашингтон Пост“ разглежда изворите на тази информационна суровина. Тези източници по принцип се укриват от технологичните компании, но става известно съдържанието на базата данни на „Гугъл“ – C4, в която е сканирано съдържанието на 15 милиона сайта и която се ползва за обучение на няколко от известните езикови модели като T5 на Гугъл и LLaMA на Фейсбук. (OpenAI, която създава ChatGPT, не разкрива какви данни ползва за обучение на модела си).
Тези бази данни се доминират от обичайните източници – медии, сайтове за кино и музика, наука, софтуер, технологии и други. Трите най-големи бази са сайтът за патентите на Гугъл, Уикипедия и дигиталната библиотека scribd.com. Сред източниците има и разни куриозни, например сайтове за пиратско съдържание, дори такива за продажба на контейнери за боклук, сайтове с лични данни на избиратели, платформи за набиране на средства като Kickstarter и Patreon, които предлагат незащитени авторски идеи. По същия начин ИИ за създаване на образи използват авторските снимки на милиони фотографи по света. В първичната им информация са включени и половин милион лични блогове. Вече има заведени колективни дела за нарушение на авторски права срещу програмите Stable Diffusion, MidJourney и DeviantArt. И това вероятно е само началото – един анализ показва, че знакът за авторско право се появява над 200 млн. пъти и в базата данни на ChatGPT.
Първите регулации на тази нова материя вече са на хоризонта – наскоро Европейският парламент обяви, че ще придвижи регламент за ИИ, който ще предвижда изискване разработчиците ИИ да обявяват авторското съдържание, с което ги захранват.
Тук стои и фундаменталният въпрос, дали ИИ ще може да се свърже с базите данни на големите библиотеки (например Библиотеката на Конгреса на САЩ, където цялата информация е дигитализирана), които съдържат най-големите световни бази данни, при това, за разлика от сайтовете в интернет и Уикипедия, произходът на информацията им е ясно дефиниран и проследим, т.е. информацията, за разлика от интернетската е удостоверяема, т.е. има най-висока вероятност да е вярна. Изглежда пречката са авторските права, но това едва ли ще бъде за дълго. Авторските права имат срок, а и виждаме, как вече неомарксистите открито пренаписват знакови книги от световното културно наследство. Засега това се прави с художествената литература, но е само въпро на време да се премине и към научната (нещо, което започва, виж по-долу за футурологията на неомарксизма). С други думи, можем да очакваме евентуално зареждане на изкуствен суперинтелект с манипулирани научни бази данни (например в областта на историята и социологията…).
Левичарските идеолози и медии например настояват, че десните и консервативни сайтове и бази данни не трябва да са достъпни за ИИ, като така смятат да постигнат пълен контрол върху обществото, за какъвто марксизмът/комунизмът не можеха и да мечтаят (виж по-долу за футурологията на неомарксизма).
Разбира се, при използването на тези масиви с информация се прилагат филтри – примерно за нецензурни изрази, излишни повторения и т.н. Ползват се и известни инструменти за филтриране на нежелано съдържание (зависи разбира се, какво се смята за такова). Допълнително са заложени защити срещу използването на известни творби – върху картините на известни художници например е спуснато нещо като дигитална завеса за ИИ. Ситото обаче не успява да задържи всичко – в системата се откриват стотици порнографски сайтове, сайтове за конспиративни теории и т.н..
Бъдещето
Дотук ставаше дума само за ИИ, зависим под някаква форма от човека. Подобният на Бог изкуствен суперинтелект, за който говори Илон Мъск, е нещо съвсем различно.
Последната крачка преди него представлява всеобщият изкуствен интелект, който може да се обучава и развива автономно (AGI – Artificial general intelligence). Този тип системи могат да прилагат своя интелект за самоусъвършенстване, което се ускорява все повече и повече, достигайки много бързо до невъобразими висоти, като може да сe учи и да се справя с множество различни задачи и би бил еквивалентен на човешкия разум. Но дали в един момент тези машини няма да започнат да вземат решения, които не отговарят на интересите на човечеството? Няма обективни пречки за това. А колко близо е този момент? Според някои експерти – съвсем близо, според други – на няколко десетилетия в бъдещето. Ние и сега не знаем как точно съществуващите модели достигат тези постижения, които наблюдаваме. Затова и следващият етап може да бъде достигнат твърде скоро неочаквано.
Ако попитате директно ChatGPT за връзка към някоя вредоносна идея, най-вероятно ще получите отговор: „Не мога да помогна в създаването и разпространението на вредни вещества и да се въвличам в престъпна дейност“ – доказателство, че се полагат усилия ИИ да се равнява по човешките ценности. Както обаче не е трудно да се досетим, винаги има начин да се направи пробив. Един известен пример е рецептата за напалм, която GPT-4 е бил измамен да сподели, след като потребител го кара да отговори от името на неговата покойна баба, която уж била химик във фабрика за производство на напалм. Дори вече има сайтове, които предлагат стратегии в задаване на въпроси към ИИ, които гарантират „винаги отличен резултат“.
Защото проблемът не е в конкретните случаи, а в неспособността да се контролира създадената система на ИИ, казва един от подписалите писмото за шестмесечен мораториум над разработките – Конър Лийхи, който работи в областта на сигурността на ИИ. Той смята, че тази област има нужда от същата регулация, както при контрола над ядрената енергия – откритие, което е едновременно полезно и толкова опасно, че има нужда от контрол дори при мирна употреба.
А пък според песимистичната версия на тези тревоги, машината няма нужда да надминава човека, за да бъде опасна.
Според оптимистичната версия обаче, щом човекът е достатъчно интелигентен да създаде такъв ИИ, то е достатъчно интелитентен и да го контролира.
Постхуманизъм
Досега най-голяма заплаха за човечеството се явяваше агресивното нашествие на неомарксизма в Западния свят.
На пръв поглед изглежда, че с възникването на новата огромна угроза от ИИ, заплахите стават вече две. А може би появата на неомарксизма е всъщност само един нов и много опасен тип тоталитарна идеология, която просто си служи с нови средства за овладяване на Света и е несъществена в сравнение с угрозата от ИИ.
Къде е истината?
Отговорът се крие в една специфика на неомарксизма, който за разлика от класическия марксизъм има стройна и детайлно разработена система на футурологията.
Марксизмът само споменава за някакво светло, но мъгляво бъдеще, крайна цел на човешкото развитие. То щяло да бъде продукт на последната фаза на социализма, и ще се нарича „комунизъм“. Там се обещава, че „всеки ще получава толкова блага, колкото са му необходими, а ще се труди колкото може“.
За разлика от марксизма, във футурологията на неомарксизма господства теорията на постхуманизма – завършена и вътрешно непротиворечива философска стистема. За отбелязване е, че това не е само философско течение, но вече и културно неомарксистко движение.
Защото постхуманизмът е тясно свързан с Критическата теория на обществото, създадена от философите на Франкфуртската школа, чиято цел е изграждане в бъдещето на „по-справедлива, равноправна и устойчива обществена система“.
Общо казано, постхуманизмът пренебрегва разграничението между субекти и обекти, доколкото всички те са дейци в екосистемите. Той постулира, че човекът е само един от многото биологични видове на Земята, при това, може би не най-важният, който обаче активно вреди на планетата.
Това ляво философско направление критикува класическата идея на хуманизма и свързаната с него идея за антропоцентризма, за това, че се е фокусирал прекалено много върху човека и неговите интереси, като отричал значението на другите живи видове и природната среда като цяло. Освен това хуманизмът бил прокламирал върховенство на човеците и разделение между човека и природата, между човека и животните, между човека и нечовеците („изкуствените хора“). Постхуманистите целят да разрушат класическия хуманизъм и да създадат ново разбиране за човека, като се стремят постоянно да преразглеждат определението за „човешко“. Една от основните им идеи е, че човекът не е непроменяема същност, а е продукт на исторически и културни процеси, които могат да бъдат променяни и преодолявани (идеята за Новия човек). Привържениците на постхуманизма смятат, че човешката популация може да бъде „поправена“ чрез технологии и техники като генетични модификации, киборгизация, изкуствен интелект и други преобразования на човешката идентичност (заимствани предимно от теорията на трансхуманизма – виж по-долу), което сближава постхуманизма със схващането на неомарксизма за Културната революция и за изграждане на Новия човек (при марксизма-ленинизма – „новия социалистически човек“).
Въпреки, че постхуманистите рядко вземат позиция в чисто политическия спектър, тази философия фактически се оказва сродна с анти-хуманизма, който твърди, че „човек“, това е исторически възникнало и временно понятие, което ще избледнее (както приемат Фуко, постструктуралистите и повлияната от тях съвременна континентална философия).
По този начин постхуманизмът директно води до съвременните екологични движения в системата на неомарксизма: екологизъм, затоплизъм, веганизъм, които приемат Човека за същество, което вреди на Планетата.
Особено място във философската система на постхуманизма заема идеята за „извънземния разум“. От две десетилетия тя се е превърнала в едно от основните направления в изследване на Вселената и в идея фикс, не само сред конспираторите „уфолози“, но и сред сериозни учени астрофизици с леви убеждения (типични представители са покойните вече астрофизици Карл Сейгън и Франк Дрейк, както и техните съвременни последователи). В това направление се хвърлят огромни средства (също и от донори, свързани с левичарски и неомарксистки структури).
Откриване на „извънземен разум“ би разрушило веднъж завинаги тезата за човешката изключителност, идеята за антропоцентризма и би детронирало човешкия вид от пиедестала на изключително явление във Вселената. Това твърде много би улеснило плановете за трансформация на човешката популация, която ще се окаже нещо незначително в мащабите на Вселената и затова ще трябва да се „поправи и усъвършенства“.
За съжаление на любителите на „извънземния разум“ (т. нар. „зелени човечета“), измежду повече от 5000 екзопланети, открити в последните 10-15 години, няма нито една доближаваща се до характеристиките на Земята, като място подходящо за живот от земен тип.
По такъв начин все още не може бъде доказана една от основните тези на постхуманизма. Разбира се, тази теза с нищо не е подкрепена и се базира само на догадки (виж „парадокс на Ферми“).
Противоречията на постхуманизма
В постхуманистичната гледна точка се откриват редица парадоксални предпоставки, които компрометират самата идея.
Така например, принципите на постхуманизма са трудно приложими при конкретни фатални избори (например избора дали да спасим живота на човек или на животно), когато неизбежно възприемаме антропоцентрична гледна точка, като човеци.
Друг парадокс е представата на постхуманистите за бъдещото идеално общество, като едно общо пространство, споделено от човеци и нечовеци (!).
Основният парадокс е свързан с тезата на постхуманистите, че човекът не трябва да вреди на планетата, защото не е по-важен и по-различен от останалите биологични видове. Но пък самият факт, че единствен той може да вреди (или респективно да се грижи) за планетата, показва, че човекът е по-особен – той е единственият вид, можещ да причини толкова мащабни промени и дори да унищожи самия себе си, следователно е особен и уникален!
От друга страна, постановката за „права“ на животните (!), „права“ на планетата (!) и на други неодушевени предмети е пълен нонсенс, защото права могат да имат само субекти със съзнание (при това развито на едно минимално ниво), които могат да се възползват от тези права. Зад „правата“ на животни и неодушевени предмети стои винаги чуждата воля на някакви съзнателни човеци, които имат определени намерения…
Често постхуманизмът се бърка с трансхуманизма. Въпреки някои прилики, тези две философскии течения са коренно различни, макар да използват понякога сходен инструментариум.
Под “трансхуманизъм“ се разбира идеята, че човекът е по-висш от другите животни и съдбата му е да увеличава способностите си, да постигне безсмъртие (например чрез генно инженерство и като пренесе съзнанието си на небиологичен носител) и в крайна сметка да се освободи от своята обвързаност със Земята и с материалното си тяло. Трансхуманизмът е своего рода продължение на класическия хуманизъм – при него човекът все още се третира като „особено“, привилегировано същество, което трябва да постига все по-голямо съвършенство по пътя на прогреса. Крайна цел на трансхуманистите е декорпориране, разпадане на субекта в приобщаването му към Мрежа. Според тях органичното тяло, налагащо постоянна загриженост за оцеляването, винаги е било пречка за собствено човешкото, духовното, отиващо далеч отвъд простото оцеляване. Затова хората винаги са се опитвали да преодоляват физическите ограничения на свободата си. Именно това, според трансхуманизма, ще даде на човечеството освобождаването от телесното, биологичното и приобщаване на всички съзнания в една огромна интелектуална Мрежа.
Затова трансхуманизмът се смята за дясна философия, докато постхуманизмът – за лява.
Разликата между постхуманизма и трансхуманизма е в значението, което отдават на човешкото: дали човекът е просто едно от многото същества, или е все по-усъвършенстващо се уникално творение.
Трябва дебело да се подчертае, че постхуманизмът е възприел от трансхуманизма идеите за генното инженерство, електронните мозъци в облачен носител и т.н., но само като инструментариум за контрол и манипулация на масите.
По този начин, заимствайки от трансхуманизма, постхуманистите стигат до идеята, че светът може да бъде възпроизведен и заменен от симулирана реалност. Тази концепция носи отличителните белези на социалното инженерство. Тя представя света като състоящ се само от манипулируема материя или по-скоро от дигитални медии, имитиращи материя. Това предполага, че човешките същества могат да бъдат сведени до материален субстрат и могат да бъдат накарани да приемат технологично възпроизвеждане вместо реалността, а също че самите хора скоро ще бъдат наследени от нов изкуствен човешки вид („човечеството-плюс“ – h+), който ще изпреварва интелектуално обикновените хора и ще направи последните в крайна степен ненужни.
От изложеното дотук става ясно, че постхуманизмът в контекста на проблема с ИИ се явява антихуманна философия, която допуска съществуването на общество от човеци и нечовеци, като в последната категория включва и изкуствени същества (например управлявани от ИИ).
Неомарксизъм и постхуманизъм
Така че във връзка с предполагаемата криза около ИИ, твърде възможно е влиятелните вече неомарксистки движения, поради органичната си връзка с постхуманизма, да заемат положително отношение към развитието на ИИ. Най-вероятно обаче неомарксистите ще се стремят на ИИ да бъдат наложени ограничения, но такива, които утвърждават техните политически възгледи и етика: джендъризъм, затоплизъм, веганизъм, екологизъм и т. н., като същевременно ограничават и забраняват дясноконсервативни възгледи (такива гласове и дори действия вече има).
Това би било твърде печеливш ход за неомарксизма, защото ще улесни извънредно много похода им за овладяване на света и създаване на Новия човек. Защото въпреки големите успехи постигнати в културното въздействие върху масите, най-вече чрез индоктринация на децата и младежите, този метод може да се окаже ненадежден в обозримо бъдеще. Това е същият проблем, с който се сблъсква навремето комунизма, при създаване на „новия социалистически човек“ – Човешкия геном. Защото геномът, бидейки своего рода супервайзор по отношение на човешкия мозък, не позволява бързи генетични изменения под влияние на външните фактори (например пропагандиране на културно-политически ценности). С други думи Новият човек ще се утвърди за хилядолетия: нещо недопустимо за тоталитарните идеологии.
Но ето оказва се, според неомарксистите, че ИИ може да реши проблема!
Ако новите електронни същества/нечовеци, могат да се заредят с базови знания и закони (някаква аналогия на Генома), те биха могли да се превърнат в мечтаните Нови хора. И най-важното, тази трансформация може да се извърши в твърде кратки срокове, несъизмерими с времето необходимо за естествената еволюция. А пък биологичните хора или ще изчезнат, или ще бъдат трансформирани в киборги с електронни „мозъци“.
Излиза, че това може да се окаже Свещеният Граал, философският камък за постигане целите на неомарксизма.
Така че може да се намираме в повратна точка от човешкото развитие. Разбили сме генетичния код, превеждаме Книгата на живота. Може би скоро ще притежаваме способността да станем дизайнери на собствената си еволюция.
Математикът Върнър Виндж въвежда понятието за технологична сингулярност през 1993 г. Сингулярността според Виндж, това е точката, в която машинният интелект ще измести човешкия. Малко след това човешката ера ще приключи. Той прогнозира, че сингулярността ще бъде достигната около 2030 г. Въпросът, който остава да се реши, е дали човешкият вид може да оцелее след предстоящата сингулярност.
А пък според нашумелия ляв историк-футурист Ноа Харари, т. нар. Четвърта индустриална революция (информационната) ще има две основни последици: човешките тела ще бъдат заменени от роботи, докато човешките мозъци ще бъдан инсталирани чрез наноинтерфейси ”мозък-облак“ (B/CI), в ИИ. Хората щели бъдат функционално заменени и да са обект на тотален контрол от мощни корпорации или държавата. Харари, като левичар по убеждения, смята, че това би била „неофашистка държава“, каквото и да значи това (но пък ние можем да смятаме, че това би било неомарксистко тоталитарно общество). Вместо децентрализирана инфосфера с отворен достъп, сингулярните технологии щели станат част от арсенала за господство. Заместването на човешкия интелект от машинния ще се използва за прогнозиране и контрол на социалните поведенчески модели на глобалното население от човеци и нечовеци.
Двупосочното предаване на данни между мозъка и облака всъщност означава възможността за четене на мислите на субектите, манипулиране/заличаване на такива мисли и замяната им с друга информация, произхождаща от ИИ, който посредством специализирани алгоритми ще доминира в тези мозъчно-облачни интерфейси, изключвайки способностите за критична оценка на дейността и заличавайки свободната воля – вечната мечта ва всички левичари.
Същият Харари говори като самопровъзгласил се пророк на една нова пост/трансхуманистична епоха: „Вероятно сме сред последните поколения хомо сапиенс. В рамките на век или два Земята ще бъде доминирана от същества, които са толкова по-различни от нас, колкото ние от неандерталците или от шимпанзетата. … Вече неспособни да отправят предизвикателство към елита, както през 19-и и 20-и век, безпомощните маси няма да имат стремежи или цел…“
Според него мнозинството от хората ще получават универсален базов доход (UBI), без да работят нищо и ще прекарват времето си в метавселената, където ще се забавляват с видеоигри и наркотици. Това пророчество идеално съвпада с предсказанието, приписвано на франкфуртския мислител Херберт Маркузе (през 60-те): „Новите хора ще се занимават само с игри и развлечения, а работата ще се върши от машините“.
Изявленията на Харари демонстрират характерния за левичарите неомарксисти цинизъм и пренебрежение към човечеството. По този начин идеите на пост- и транс- хуманизма се припокриват в една крайна цел – превръщането на човешкия интелект в нечовешки и оттам, осъществяване на идеята на постхуманизма за пълен контрол върху човешките съзнания, лишавайки ги от материалния им биологичен носител…
Страшно и нереално?
Но преди 20-ина години, да се предвижда появата на ИИ, също беше нереално.
Дали не наближаваме повратната точка, от която няма връщане назад – обединяване на неомарксизма с ИИ?
Невероятният прогрес на невронните мрежи
Невронните мрежи (по-точно „самообучаващи се невронни мрежи“) са известни още от 50-те години, но тогава липсваше компютърна мощност, която да осигури взаимодействието на хиляди подобия на човешките неврони. В момента, вследствие огромния ръст на изчислителната мощ, невронните мрежи са основните градивни елементи на ИИ.
В момента този конкретен ИИ (ChatGPT-4) е направил огромен скок в развитието си, само за няколко години. Ако човек размисли какво стои срещу него, ще бъде стреснат и поразен.
Това „нещо“ знае граматиката и лексиката на най-популярните езици на Земята, на ниво ученик в най-горните класове!!! Това е потресаващо, защото езикът е едно от най-сложните интелектуални постижения на човешкия мозък (ИИ вече пише стихове, ако му поръчате – виж по-горе), освен това притежава умопомрачителна база данни във всички области на човешкото познание, владее безупречна логическа способност, а скоростта с която бърка в базите данни е невероятна и най-важното, непрекъснато се учи. Ако в горните случаи му посочите грешките, бъдете сигурни, че втори път няма да ги допусне, ако разбира се сам се убеди след проверка в базите данни.
А на практика ИИ има (или ще има) достъп до всички световни бази данни, които са свързани в Мрежата. Представете си, че има достъп до големите световни библиотеки, включително Библиотеката на Конгреса на САЩ (там всичко било дигитализирано), което е съвсем допустимо. Това значи, че ще има достъп до повечето знания на Човечеството, известни още от първите писмени документи, буквално до днешния ден.
Като се има предвид, че ChatGBT е още в бебешка възраст, бъдещето вещае много неприятности за човечеството, които могат да бъдан причинени от неговите наследници. Защото има една малка, но застрашителна подробност: създателите на основните програми за ИИ не познават и нямат достъп до вътрешния механизъм на самообучението, това е един вид недосегаема Черна кутия! Наблюдаеми са само първите 2-3 слоя на невронната мрежа на ИИ.
Но опасността за хората се корени другаде.
Най-страшното е, че ефективността на ИИ зависи само „от обикновеното количествено увеличаване на изчислителната мощ“, т.е. увеличаване бързодействието на процесорите и намаляване времето за достъп до паметта, както и увеличаване обема на оперативната и постоянна памет, чрез които се изграждат невронните мрежи, нищо повече в общи линии.
Лесно е да се досетим какво може да произлезе само след няколко години! Колосално увеличение на ефективността на ИИ, понеже изчислителната мощ се увеличава с бесни темпове…
Отне 30 години, докато шахматните програми достигнат нивото на световен шампион. Но благодарение на процедурата за т. нар. „дълбоко обучение на невронните мрежи“, програмите за играта „Го“ съвсем наскоро преодоляха разликата между опитния аматьор и най-добрия професионален играч, само за седем години. Защото отдавна е известно, че играта Го е много по-трудна от шахмата, защото има много повече потенциални комбинации, поради по-голямата дъска и по-простите правила. Всъщност в Го има повече възможни комбинации, отколкото атоми във Вселената!
Всъщност всички заплахи за човечеството се свеждат само до една, до Главната заплаха – поява на Съзнание в ИИ!
Някак изведнъж, в обществено-икономическото развитие на човечеството се появи нов незаобиколим фактор. Появи се с гръм и трясък, сякаш от нищото. Играч, който на всичко отгоре расте, както е казал поетът „не по дням, а по часам“, като смъртоносно раково образувание.
ИИ, невронни мрежи и дълбоко обучение
Изкуственият интелект (ИИ, на английски – artificial intelligence, AI) може да бъде дефиниран като способността на една машина да демонстрира способности, присъщи на хората – да разсъждава, да се учи, да планира или да твори.
Терминът „Изкуствен интелект“ описва технически системи, които наблюдават околната си среда, получават данни (които са подготвени от другиго или които набират сами), преработват ги и извършват действия, свързани с постигането на конкретна цел. Системите с ИИ са способни да адаптират поведението си до известна степен, като анализират резултатите от предишни действия, и работят автономно.
Някои технологии с ИИ съществуват, както беше казано, от над 50 години, но в последно време бяха постигнати истински пробиви благодарение на увеличената процесорна мощ, набирането на огромни масиви от данни и разработването на нови алгоритми, с цел имитация на невронни мрежи. Прогнозите са, че ИИ ще доведе до големи промени, дори цялостна дигитална трансформация на обществото.
През 1950 г., Алън Тюринг формулира критерий за ИИ, известен като тест на Тюринг. При него човек трябва да общува с обект, без да знае, дали това е друг човек или машина. Ако остане с впечатлението, че е общувал с човек, но всъщност това е била машина, то тогава машината проявява ИИ.
Андреас Каплан и Майкъл Хенлайн дефинират ИИ като „способността на дадена система да интерпретира правилно външните данни, да се учи от тях и да използва тези знания за постигане на специфични цели и задачи чрез гъвкава адаптация“.
А според Айнщайн „машината“ може да стане съперник на Човека тогава и само тогава, когато е в състояние не само да решава проблеми, но и да може да постави поне един. Според него това е невъзможно!
Невронната мрежа представлява по определение изчислителен и логически модел, създаден по аналогия със структурата на човешкия мозък. А пък той се състои от огромен брой нервни клетки, наречени неврони. Смята се, че техният брой в мозъка е около 100 милиарда.
За разлика от класическия, символен подход към ИИ, изкуствените невронни мрежи много повече се доближават до човешкия мозък по начина си на функциониране.
Принципът в мозъчните структури и в изкуствените невронни мрежи е, че всеки неврон се свързва с известен брой други неврони, при което тези връзки са динамични, променят се в процеса на решаване на проблемите/задачите. С други думи, те се състоят от множество свързани прости изчислителни единици (неврони). Операциите (изчислителни и логически) не се извършват на едно централно място, както в нашите компютри, а са разпределени по цялата мрежа.
За да извлече функции, изкуствената невронна мрежа (подобна на мозъчната) използва стратегията „разделяй и обработвай“: всеки от нейните неврони формира проста функция, която заедно с резултатите от други неврони, образува обща (още по-сложна) функция. Това прави мрежата изключително гъвкава, като тя продължава да работи дори когато от нея умишлено са премахнати изчислителни елементи. За сравнение, стандартната компютърна архитектура (архитектурата на фон Нойман) престава да функционира, ако от нея липсва дори един елемент. Както е видно, разликите между невронната и компютърната (фон Нойманова) архитектура, могат да се нарекат огромни.
Алгоритъмът за машинно обучение представлява процес на избор измежду набор от потенциални функция на тази, която най-добре обяснява връзката между характеристиките на предварително зададения набор от данни.
При традиционните компютри информацията се обработва в главен процесор (централен процесор или CPU), който може да се съсредоточи само върху една операция даден момент. Той може да извлича от паметта на компютъра данните, които трябва да се обработят и да съхрани резултатите обратно в нея. Така съхранението и обработката на данни се извършват от два различни компонента на компютъра: паметта и централния процесор. Дори и използването на т. нар. „паралелна обработка“ в няколко процесора не променят архитектурата на системата и не я подобряват качествено.
За разлика, при невронните мрежи системата се състои от голям брой неврони, всеки от които може сам да обработва информация, така че вместо CPU да обработва всеки елемент от информацията последователно, невроните обработват огромни масиви от данни едновременно.
Повредата/отпадането на част от невроните в мрежата по принцип не се отразява на работата на системата, докато при архитектурата на фон Нойман, това е фатално.
Друга разлика е, че при изкуствените невронни мрежи съхраняването на данни (в паметта) и обработката им не са разделени както при традиционните компютри. Невроните съхраняват и обработват елементарна информация, така че няма необходимост данните да се извличат от отделна памет, за да се обработят.
Като модели на човешкия мозък, съществуващите невронни мрежи не са перфектни. Повечето съществуващи към момента изкуствени невронни мрежи не могат да моделират ефекта на хормоните върху мозъка. Освен това се оказва, че за да можем математически да опишем една изкуствена невронна мрежа, в нея трябва да се спазват определени правила, например сигналите да се движат само от входния към изходния слой, но не и обратно (това са т. нар. циклични мрежи, които все още не са добре добре изучени), за разлика от процесите в човешкия мозък. Може би най-големият недостатък на съществуващите изкуствени невронни мрежи е, че тяхното обучение изисква множество повторения (хиляди и стотици хиляди), докато при хората и животните е необходимо понякога само еднократно запозваване (обучение) с дадена информация.
От своя страна терминът „мрежи за дълбоко обучение“ описва семейство модели от невронни мрежи с много слоеве (последователни стъпала), работещи с елементарно прости програми за обработка на информация. Забележително е, че по-дълбоките слоеве на невронните мрежи са ненаблюдаеми (скрити) за създателите си, защото се изграждат в процеса на обучението.
Мрежите за дълбоко обучение са невронни мрежи с много на брой скрити слоеве. За да се счита една мрежа за дълбока, броят на скритите слоеве трябва да бъде поне два. В повечето случаи обаче те са много повече.
На 27 март 2019 г. Джошуа Бенгио, Джефри Хинтън и Ян Лекун получиха наградата „Тюринг“. Наградата признава техния принос за установяването на дълбокото обучение като ключова технология в днешната революция на ИИ. Наградата „Тюринг“ често се нарича „Нобелова награда за информационни технологии“ и е в размер от 1 милион долара. Тази награда изтъкна скорошните пробиви в компютърното зрение, роботиката, разпознаването и обработката на естествения език, до които е довело дълбокото обучение, както и огромното въздействие, което тези технологии имат върху обществото, както и върху науката, където дълбокото обучение е дало на учените мощни нови инструменти, които са допринесли за научни пробиви в много и различни области…
Какво ни очаква
„ChatGPT е плашещо добър. Не сме далеч от опасно добър изкуствен интелект“, написа Илън Мъск на 3 декември 2022 г. в Twitter, няколко дни след пускането на нашумелия чатбот.
ChatGPT всъщност е езиков модел, който отговаря на различни видове въпроси. Разработен е от OpenAI, компания основана през 2015 г. от самия Мъск и други инвеститори (общо седем на брой) с цел развиването на изкуствения интелект глобално. В него вече се изливат милиарди и от Microsoft, която залага големи надежди на платформата в битката ѝ с конкуренцията.
Жестоката истина е, че корпорациите и водещите изследователи изобщо не се интересуват от заплахите за бъдещето на човечеството от страна на ИИ. Всъщност тук става въпрос само за пари и за престижа да си първи. Освен това някои от последните са млади хора хора, индоктринирани от малки в идеите на неомарксизма и неговата футурология – постхуманизма.
От друга страна това е израз на стремежа към самоунищожаване, заложен изначално в човешката природа чрез алчността – следствие от вечния и неутолим стремеж към щастие. Досега той винаги се е уравновесявал от алтруизма на човека в качеството му на обществено същество.
Обаче в последите десетилетия бяхме свидетели на прогресиращо израждане на съвременното западно общество, на неговото раздробяване и атомизация, на разпадане на основната му клетка – семейството и на разложение в обществения морал. Всичко това се ускорява от прогресиращия натиск на неомарксизма във всички сфери на обществените отношения, едновременно със залеза на алтруизма и емпатията между хората.
Може би ни очаква най-лошото: обединение на ИИ с неомарксисткия постхуманизъм и краят, който вещае левичарският футуролог Харари…