Artificial intelligence in the context of the onlinecommunication: A challenge to the Safety principle
Plamen Atanasov, PhD
Nowadays interactions expand in the cyberspace. The resulting changes find their reflections in the ways people communicate and the behavioural activity that is expected of them. One of the major reasons is the appearance of the computational metaphor amongst the primary factors defining the cognitive. This invasion is a result of the fact that people are capable of reacting to the surrounding environment: both to its physical cues and to its cognitive ones, such as speech, text, image and sound. The conflict in the cognitive dimension comes from the similar-to- and pseudo-intelligence associated with modern computing devices. The combined effect of all these factors gives the online-based communication a powerful impulse for social engineering. This is corroborated by the reality we experience, especially from the beginning of this century onwards. This elaboration confirms that the changes require a clear and constructive approach to The New, so that artificial intelligence does not evolve into a threat, but is led by people in a constructive direction. It also confirms that communication is amongst the defining factors in this process.
Keywords:artificial intelligence, computing metaphor, cognitivity, mass communication, computer-mediated communication
Увод
Персоналните псевдоинтелигентни устройства вече изпълняват гласови команди, помнят графици и при включване дори поздравяват с ободряващ тембър при своето активиране. Мисълта, че в джоба си държат нещо средно между Гъливер и Палечка [1] е доста забавна за хората. Тя кара съвременниците ни да се чувстват като великани. В същото време всички знаят, че компютрите и „модерните“ телефони не са живи. Освен това не е тайна, че компютрите не проявяват интелект, а само симулират интелект. В условията на мрежово свързване и на споделяне на ресурси, въпросното симулиране е твърде успешно и осигурява висок потенциал за успех при моделирането на технологични, че и на социални процеси. На този фон изкуственият интелект се очертава и като инструмент за намеса в комуникацията и общуването. Този инструмент е особено ефективен и ефикасен за приучаването на личността към приемане на готови предложения и към симулиране, вместо към реално изработване на решения. Такава хипотеза е съвсем оправдана в ракурса на обстоятелствата, че: От една страна, речта и комуникацията осигуряват специфичен „вход“ към човешката психика и създават специфичен контур за управление на поведението; От друга, практиката показва, че и речта, и комуникацията са твърде пластични и относително леко се превръщат в проводник на симулациите на мислене, реализирани от съвременните форми на изкуствен интелект. Нещо повече – намесите в мисленето и поведението са твърде неприемливи за демократично настроените общества и хората в тях, къде съзнателно, къде – не, избягват допускането, че съществуват такива интервенции. Такава нагласа осигурява на играчите, опериращи с инструментариума на изкуствения интелект, относително безпроблемно прикриване зад паравана на обяснението, че съществуват фиктивна компютърна свръхмощ и превъзходство. Превъзходство, което не подлежи на човешки контрол и което лесно се представя като независимо от човека и обществото.
Проблемите не са нови. От векове насам има разнообразни концепции относно наподобяването на хуманен разум и физическо действие. Съществуват и редица предупреждения относно употребата на човешка оперативност, делегирана на неживи, макар и сложни, псевдоинтелигентни устройства.
Отнесени към протичащите социални процеси и към поведенческото формиране на личността, напоследък тези призиви звучат още по-актуално. Днес все по-често се чуват обобщения, че на компютрите и Мрежата принадлежи бъдещето, че процесорите (проектирани, конструирани, програмирани и пуснати в употреба от човека) могат всичко – от управлението на автомобили, влакове и самолети, през лечението на хора, до правенето на новини и управлението на масовото осведомяване и т.н. В същото време, въпреки популярната еуфория по всесилните компютри и интернет, мисълта, че комуникирането е само част от изкуствения интелект, звучи неприемливо, дори и за най-заклетите фенове на информационните технологии и постижения. Това противоречие очертава изкуствения интелект като предмет спрямо пространния обект на комуникацията. То показва също, че проблемите не са стилизирани до черно-бяла окраска, но въпреки това изискват ясно и категорично отношение от обществото. Отношение, което е навременно, съответства и едновременно с това осигурява бъдещото прилагане на „Принципа за безопасност”, като не блокира перспективите за развитие. В този план се откроява и особеността, че след успехите в невронауката през последните десетилетия вече са разкрити част от спецификите на човешкия мозък, които в значителна степен обясняват поведението на индивидите и на социалните групи. Това прави логично излизането извън бихейвиористичната перспектива и разширяването на съжденията в полето на когнитивната психология, когато се изследват страничните намеси в личностните или масовите прояви.
1. Комуникация и изкуствен интелект
От Сократ и Аристотел насам едва ли съществува съмнение, че човекът е мислещо и в същото време – социално същество. Това същество постига относителен синхрон с динамиката на заобикалящата го среда, като открива и решава проблеми, и като реализира множество когнитивни процеси, преминавайки през сложно взаимодействие с останалите. Възниква специфичен синергизъм между комуникирането и другите, адекватни на промените действия. Тази свързаност е определяща и за индивида, и за социалните групи, независимо колко големи са последните.
1.1. Интелект vs. изкуствен интелект
Един от атрактивните изрази на конгломерата комуникация/действие е интересът към мисленето и интелекта. Към интелекта, като връзка на това мислене с отговора, насочен към промените на средата. По тази причина отношението към външните намеси в тази толкова деликатна област е амбивалентно: От една страна човекът ревниво пази когнитивността, като присъща само нему характеристика, а от друга – в търсенето на реализация на успехите, постигнати с тази когнитивност – създава работещи модели на частично свое подобие. Един от успехите, или може би от неуспехите в тази посока са човеконаподобяващите действия на машините и на сложните устройства.
1.1.1. Интелект и реалност през първите две десетилетия на ХХІ век
Конкретиката на общуването от началото на ХХІ век до сега е немислима без присъствието на нещо незавършено и непознато в абстрактните образи на мисленето. Социалното пространство през този период е колкото разширено, толкова и ограничено от уеб екстензиите на отношенията. Информацията става повече, или поне се обменя по-често и колкото парадоксално да звучи – това сякаш увеличава неизвестността, пред която се изправя личността преди вземането (изработването) на решение. Един от актуалните изрази на промяната засяга интелекта. Самият интелект се свързва със способност за абстрактно мислене и за генериране на причинно следствени връзки относно проявите на средата [2]. Тази способност е определяща за адекватността, с която личността реагира на заобикалящите промени.
Развитието на компютрите и арогантното навлизане на интернет, поставят разбирането за интелект под гравитационен натиск от един паралелен свят на подобие. Новостите са съществени, тъй като интелектът е ключов за психиката и поставянето на неговите качества в условия на конкуренция рефлектира пряко върху ориентирането на индивида спрямо заобикалящата среда. Още по-сложно е, когато конкуренцията е с характеристиките на конструкт, който е колкото необичаен, толкова и присъщ за човешкото мислене, който симулира способност към феноменално формиране на строги логически последователности и който най-често е определян с термина „изкуствен интелект“.
В популярното измерение словосъчетанието „изкуствен интелект“ е по-скоро закачка, но от гледна точка науката, разбирането е незавършено. Ражда се някъде през ХVІІ век, заедно с прецизните движения на механичните автомати в градините на Париж и на други развити градове от онова време. Още Рене Декарт (1596–1650) пише, че бъдещето ни води към „... машина, направена от ръцете на Бога, която е несравнимо по-добре подредена и адекватна на движения“ [3]
Днес въпросите са по-конкретни: „През XVII век автоматите симулират човешки движения и говор. През XXI век ново поколение компютри ще симулира ли човешко мислене?“ [4]. Отговорите не са съвсем ясни.
1.1.2 Изкуствен интелект или изчислителна метафора
Известно е, че компютрите не покриват критериите за присъствие в категорията интелигентност. При тях става дума не за мислене, а за опит за математизирано описание на дейността на човешкия мозък [5]. В когнитивната психология тази метафора е известна с определението компютърна, или по-точно – изчислителна метафора [6].
По темата съществува пространно множество от научни концепции. Част от тях са изградени според съответствието в признаците на интелект, проявен от хората или от машините. Ето някои от известните разработки:
- Приемането, че интелектът е уникален за носителя си води до съществено противоречие: Изкуственото мислене в компютрите е скрито не в хардуера, а в софтуера, където предварително са конструирани ситуационни подходи. При тези обстоятелства същинската проява на интелект принадлежи на създателя на записите, а не на изпълнителя. Изследователят Майкъл Газанига допълва, че за пренасянето или разпространението на едни и същи, предварително създадени и записани инструкции до неограничен брой изпълнителни дигитални системи не е коректно използването на термина „интелект” [7];
- Разглеждането на адаптирането към средата като съществен признак за интелигентност води до противоречиво отношение: Известният математик Алън Тюринг (1912–1954) предлага своеобразен тест и конкретизира, че изкуствен интелект е наличен, когато човек не открива къде има събеседник, ако комуникира срещу два компютъра, в единия от които разговорът се управлява от програма, а в другия се води от оператор [8];
- Разбирането, че интелектът е активно, а не пасивно или последващо отразяване на средата също оспорва наличието на интелигентност в едно опериране: Философът Джон Сърл се позовава на задачата за китайската стая [9]. Постулирането е такова: Налични са стая с два прозореца, човек-оператор и декодираща таблица. През първия прозорец операторът получава съобщения на неясен език и с неизвестно съдържание (за повечето европейци от онова време китайският е подходящ за такива бележки). Декодиращият сравнява неизвестните знаци с кодовете от таблицата и генерира ново съобщение, което вече е известно. Той изпраща тази нова форма на старото съобщение през втория прозорец и така предизвиква съответстваща реакция в заобикалящата стаята среда. Очевидно е, че адекватността на тази реакция е вън и независима от мисленето на човека пред таблицата и по тази причина операторската активност остава е далече от разбирането за интелект.
Дори и само тези три концепции показват, че за наличието на интелект е необходимо присъствие на избор, на собствена дейност по изработване и вземане на решение. Странното е, че комуникацията в Мрежата или тази с компютърния софтуер сякаш затрудняват точно тази, присъща за активността на индивида интелигентност. Едновременно с това, показаните концепции не отричат, че сложните дигитални устройства са в състояние и симулират интелигентност. От гледна точка на социалните науки този резултат съвсем не е безобиден за визията на човешкото бъдеще. Дори и в ограничения ракурс на комуникацията последиците са внушителни.
1.2. Комуникация, реч, психика
В най-общ план, комуникирането е една от основните функционални прояви на взаимозависимостта в природата. Отнесени към хората, е трудно тези отношения да бъдат ограничена в рамките на личността или на обществото. Причината е, че комуникацията е основен път за реализиране на социалното, а социалното изисква колективно съобразена активност. Вероятно най-тясното място в тази свързаност е поведението на личността.
1.2.1. Реч и психика
В процеса на своето еволюиране, в сравнение с останалите живи същества, хората са развили до особено висока, качествено различна степен способността за реализиране на поведенческа активност (физическа и социална) под действието не само на физични дразнители, но и на говорене, писане и невербално комуникиране [10]. Като вид, принципно се отличаваме в природата и по несравнимо високата си способност за абстрактно мислене [11]. Последица от тази уникалност е, че за човека комуникацията изпълнява изключително важна роля сред факторите, определящи персоналното и масовото поведение. По тази причина сравняването на човешките социални групи с някои форми на колективна мрежова организация в природата, каквато е типична за видове като мравки, пчели и др., е твърде опростено и звучи неадекватно, когато става дума за когнитивизъм в комуникацията и в обществените отношения на хората.
1.2.2. Символите и абстрактното мислене – ключ към неопределеността
Поне на планетата ни, сложната реч и развитото абстрактно мислене са присъщи единствено на хората. Човекът използва разнообразни символи, а те в съществена степен са неопределени. Неопределеността позволява фриволност и провокира конструирането на комплекси от бъдещи, неслучили се възприятия, т.е непрекъснато стартира въображението, в качеството му на когнитивен процес. Например, говорещият казва „къща“ и разговорът продължава без събеседникът да губи време за уточнение на колко етажа е тази къща, тя има ли керемиди или е с ламаринен покрив и т.н. Абстракцията „къща“ се превръща в достатъчна отправна точка от съждение към бъдещи умозаключения, а от там и към евентуални решения. Тази схема спестява огромен мисловен ресурс и повишава ефективността при преработването на данни. Вероятно компенсира и разликата в скоростите, с които мисли човекът и с които съвременните дигитални устройства имитират мислене, изчислявайки постъпващите в оперативната им памет битове.
1.2.3. Изчислителната метафора и подобието
Макар и подобен на човешкото мислене, изкуственият интелект не комбинира съзнателно думи със смисъл и не работи с неопределеността на символите. За сметка на това, хардуерът и софтуерът генерират огромни количества, не винаги смислена [12] информация, с която заливат потребителите. Това поражда специфичен дисонанс. От една страна, поради чисто физиологичните ограничения, човекът не е в състояние за възприемане на всички послания, генерирани или постъпили в личния му компютър; От друга – поради вродения инстинкт за самосъхранение, интересът, който проявява личността към постъпващата информация не отслабва. Едно от най-естествените преживявания е въпросът: Ами ако съм пропуснал нещо важно, което може да бъде опасно за мене? Видима е ясната връзка с физическата сигурност, а самата физическа сигурност и безопасността, според концепцията на Ейбрахам Маслоу са съставни елементи в една от универсалните базови потребности на личността [13]. Съчетаването на физическите възможности с безкрайнността на интереса отвежда към несъвместимостта на две обстоятелства, претоварва мозъчните центрове и последиците несъмнено се пренасят в комуникирането, а от там и в социалните отношения.
1.4. Въображение и изработване на решения
Компютрите не оперират с абстракции и не правят избор, а само разделят, оценявайки по критерии, заложени предварително от създателя на софтуера. По време на тази селекция, при сблъсък с параметър, който липсва в критерия, сложното псевдоинтелигентно устройство или спира, или подминава конфликтния елемент от множеството. Така компютърните предложения за активност блокират способността за изработване на решения (англ. decision making) и се ограничават в непробиваема и лишена от екстензиите на въображението клетка, чиито граници са определени и са във властта единствено на управляващия софтуера. Това подсказва, че в духа на нашето време функционира още един мощен инструмент за социално конструиране на публичността. Показва също, че ако съществуват опасности, прерастването им в заплахи зависи от хората. Зависи от посоката и размера на активността, която гражданското общество проявява спрямо разширяването на социалните отношения в киберпространството.
2. Изкуственият интелект и моделиране на социална активност
Мисълта, че компютър или не чак толкова изчисляващо, но също толкова сложно устройство направлява хората при взаимодействието им в обществото, е колкото обидна, толкова и безпочвена. Когато се елиминира емоцията, се вижда, че компютърът не е сам и че зад него не само седи човек, но и този човек управлява. Тогава мисълта, че проблемите са далече по-големи от обида, придобива рационален характер.
2.1. Промени в комуникацията и отношенията
Промените от разширяването на социалните отношения в уеб пространството вече са видими и съвсем не са безобидни. Благодарение на изкуствената си псевдоинтелигентност днешните дигитални комуникационни устройства възбуждат у индивида странен ориентировъчен рефлекс и не винаги по обясним начин насочват вниманието, като модифицират осведомяването. С всеки изминат ден става все по-явна социалната симптоматика на напрегнатост и претоварване: хората стават по-малко емпатични [14], отслабват връзките в тесния семеен и приятелски кръг [15], нараства времето за виртуални контакти [16] и т.н. Освен това новостите не са хаотични, а сякаш се поддават на логическа подреденост, при това – със странни намеци за математическа прецизност. Свидетели сме на:
2.1.1. Висока скорост на информационен трансфер: Тя стимулира нарастването на броя на съобщения за единица време, което неизменно рефлектира върху менталността. Сред последиците са: 1) намаляване на времето за мислене; 2) претоварване на физиологическите възможности за установяване на когнитивни връзки в мозъчния комплекс от неврони; 3) спадане на критичността, тъй като на индивида остава все по-малко време за сравняване и съмнение; 4) увеличаване на броя на факторите, които определят вземането на решение и това затормозява избора на поведенческа активност; 5) усложняване на свързаността и отношенията в мрежата на всичките социални групи, независимо дали тези свързаност и отношения протичат онлайн или извън интернет, в света на физическата реалност.
2.1.2. Алгоритмизиране на отношенията: То се пренася върху психичните когнитивни процеси като възприятие и въображение. Пренася се и върху психичното отнасяне към времето, а това означава и върху способностите за абдукция (приемане на хипотеза за правдоподобна и предвиждане на последиците от резултата), аперцепция (възприемане в зависимост от предхождащия опит) и антиципация (поставяне пред събитията и своеобразно предвиждане). Нараства ефективността на астротърфинга, в качеството му на специфична форма за масово подвеждане, която генерира реални резултати и позволява дори намеса в законодателството [17]. Не по-малко израстване бележи и микротаргетирането. То осигурява прецизно разделяне на потенциалните потребители на съобщения по определена тема и тази тема се поднася по различен начин пред всеки от набелязаните приемащи. Един от подходите при такова прецизиране е съчетаването на психометричните методи, по които няколко основни характеристики позволяват сравнително точно определяне на характера, с достъпната информация, генерирана при масовото споделяне в социалните онлайн платформи.
2.1.3. Големи бази данни. Благодарение на всички изброени новости, в определени позиции на Мрежата се появяват огромни съвкупности от съждения, напълно годни за умозаключения и тези умозаключения позволяват, за някого, ако не за всички, напълно ефективни практически имплементации. Такива масиви с годна за умозаключения дигитална информация напоследък все по-често са наричани Големи бази с данни. Те са една от причините за масово събиране на цифрови сведения от всякакъв вид (за хора, за думи, за процеси, за звуци, за цветове и т.н.), за усъвършенстване на дигиталните памети (по обем и по скорост на достъп) и на изчислителната мощ. Големият въпрос е, какво става с грешките при тези изчисления. Възможно ли е имитацията на интелигентност да бъде приета от човешките закони и да заработи сама, вън и независимо от съзнанието на индивида? Не съвсем футуристичните последици показват, че това не е нереално...
2.2. Изкуственият интелект и „Принципът за безопасност”
Известните учени Стивън Хокинг, Стюарт Ръсел, Макс Телемаг и Франк Вилчек пишат: „Ако краткосрочното въздействие на изкуствения интелект зависи от това, кой го контролира, то дългосрочното зависи от това, възможен ли въобще такъв контрол... Всички ние сме длъжни да си зададем въпроса за това, какво можем да направим сега, за да повишим шансовете за извличане на изгоди и заедно с това да избегнем рисковете“ [18].
2.2.1. Трите закона на роботиката
От гледна точка не само на механизмите и машините, но и на комуникационните технологии, съвременните псевдоинтелигентни устройства работят без надзор все по-дълго време, тъй като стават все по-прецизни и все по устойчиви на повреди. Така човешката намеса и контрол стават все по-кратки и все по-редки. Това налага прецизиране на проектирането и изработване на правила. Едно утвърдило се като добро предложение са т.нар. три закона на роботиката, дефинирани от известния учен и писател-фантаст Айзък Азимов:
„... роботът не може да причини вреда на човека или с бездействието си да допусне на човека да бъде причинена вреда.
[...]
Роботът е длъжен да се подчинява на всички заповеди на човека, освен ако те не са в противоречие с Първия закон.
[…]
… роботът е длъжен да защитава своята сигурност, доколкото това не е в противоречие с Първия и Втория закон“[19].
2.2.2. Принципът за безопасност
Терминът „закони“ е използван съвсем условно, но е безспорно, че цитираното формулиране носи реално логическо съждение и отвежда към известния „Принцип за безопасност”. Той е стар почти колкото цивилизацията ни и гласи, че всяко нещо (действие, химическо съединение, предмет, устройство, процес и т.н.), което не е доказано като безвредно – не се използва. Въпросът, който днес е актуален относно изкуствения интелект, е: Нарушен ли е споменатият принцип? Отговорът се сблъсква със специфичен недостиг на яснота. От една страна, човекът не вижда и не е в състояние да мисли и гледа със скоростите на дигиталното. Така много от процесите, свързани с информацията и оперирането, подлежат на осмисляне, но не са видими за обществото; От друга, самите компютри и Голямата мрежа са създадени от човека и се управляват от него, но това изисква не само висока квалификация, а и достъп до съответните пултове за манипулиране. Достъп, който не винаги е явен и се разпределя по силата на сложни, противоречиви помежду си процеси. Адекватна илюстрация на такава изкривена транспарентност дава критичният поглед върху проекта „Neuralink“ и по-точно – върху неговото представяне.
• Случаят „Neuralink“
„Neuralink“ е медицински проект и е стартиран от небезизвестния предприемач Илън Мъск преди около две години. Целта е „лечение на мозъчни заболявания и допускане на изкуствен интелект“ [20]. Намеренията са за имплантиране на чип, който коригира работата на човешкия мозък. Това не изглежда толкова футуристично, ако се съобрази, че немалко хора по света живеят благодарение на вградени устройства – пейсмейкъри за поддържане на сърдечния ритъм, устройства за подаване на инсулин и т.н. Проблематичността, или по-скоро пробивите в „Принципа за безопасност” идват от неяснотата: “Лечението на мозъчни заболявания“ донякъде е известно, но какво означава „допускане на изкуствен интелект (enable superhuman intelligence)“? Доколко superhuman intelligence съвпада с artificial intelligence?
Днес техниката е напреднала, но значи ли това, че вкарването на чип в някоя от черепните кости е безвредно и допустимо, примерно за дигитални корекции в даден център на мозъчна активност. Друг, не по-малко съществен въпрос е: Сигурно ли е, че корекциите от този чип не блокират активността в други мозъчни центрове и не се ли отразяват на характера и на интелекта? Съдейки от публикувано в Телеграф, отговорът е по-скоро – не. Самият Мъск казва: “Сценарият за сливане с изкуствения интелект (AI) е този, който вероятно изглежда най-добрия. Ако не можеш да го победиш, се присъедини към него” [21].
Подобни намерения отвеждат към друг проблем – този за психично здравата личност. Според повечето изследователи такъв еталон все още не съществува, а и ние хората не знаем какво точно трябва да съдържа той [22]. Това, което казва Илън Мъск, по-скоро прилича на обяснение, че не човекът, а изкуственият интелект е наясно с това как трябва да изглежда перфектната личност. Перфектна, но за кого?... Подобна позиция недвусмислено и не без основание препраща към вече цитираните закони на роботиката.
В практически план се появява още един странен проблем: След като чипът вкарва сигнали по определен алгоритъм, то кой записва този алгоритъм. Допустимо е предположението, че информацията, която изкуственият интелект от чипа разпространява у пациентите, няма да е същата в Европа, в арабския свят или в Далечния изток. За изследователите в областта на сигурността разликите определено представляват интерес.
Всичко показано говори, че изкуственият интелект не само не надхвърля „Принципа за безопасност”, но и начинанията в неговото поле остават подвластни на този принцип. Напредъкът в технологиите не е цивилизационно оправдание.
2.3. Изкуственият интелект в когнитивен психологичен контекст
От когнитивна гледна точка, днешните изчислителни устройства, че дори и невронната (невронна не защото е микро-, а защото всеки възел е управляем и през него се регулира пропускливостта на сигналите, което нарушава симетричното разпространение) мрежа от тяхното свързване изпълняват няколко функции:
1) улавяне на сигналите и привеждането им в дигитален информационен вид (нещо като псевдо съждения),
2) изчисляване, т.е. логическото им съпоставяне и получаване на резултати (нещо като умозаключения),
3) съхраняване на данните (нещо като памет),
4) пренасяне на тези псевдоумозаключения, но във фрагментиран вид и в различна степен на завършеност,
5) превръщане на маршрутизаторите и някои други, управляващи мрежата устройства, както и онлайн потребителите, в крайни точки от сложен математически граф (мрежа), който е изчислим.
Изкривяването в която и да е от последователностите на показания алгоритъм предизвиква когнитивни смущения. Ето две концепции в тази посока:
2.3.1. Ноам Чомски и вградените лингвистични компоненти
Според Ноам Чомски [23] процесът на еволюция не изтрива от човешкото съзнание някои първични, генетично общи за всички хора, елементи на лингвистични компоненти. При противопоставянето между изчислителната метафора и мисленето се вижда, че тези своеобразни остатъци лесно се превръщат в генетични маркери, с които се бележат „отворените врати“ към менталната същност на личността. Нещо повече – с помощта на днешните изчислителни устройства, голяма част от въпросните маркери са реално изчислими, което ги прави откриваеми и достъпни.
2.3.2. Мартин Селигман и депресията, като заучена безпомощност
Във вътрешния свят на отделната личност ситуацията не е по-различна. Според Мартин Селигман [24] депресията е израз или по-скоро, продукт на заучена безпомощност. Това вероятно е и едно от най-старите описания, вложени в термина. То не е толкова в посока на клиничния смисъл, а има тесни отношения с мисленето и социално психологическото измерение в поведението на личността. В този план организирането на компютърно опосредстване в комуникацията показва, че днешният онлайн потребител е изправен пред стена на ограничен избор. Тази ограниченост понякога изглежда рационална, но не толкова в проекцията на техническия потенциал, колкото в кръга от интереси на доставчика.
• „Бисквитки“ (cookies)
Не безизвестните „бисквитки“ (cookies) вървят, особено след GDPR [25], със съгласие за приемане, което се появява при първото посещение почти на всеки сайт. Те остават в компютъра на потребителя и служат като насочващи „магнити“ за привличането на адреса на страницата, чиито продукт са. Така сайтът, заедно с всичките си рекламни банери и други препратки се оказва сред първите предложения, когато хората търсят в интернет сведения по определена тема.
Показвам един от надписите, които изискват от онлайн комуникатора съгласие за приемането на въпросните „бисквитки“. Една често срещана екранна формулировка е като показаната на фигурата:
Не е трудно да се забележи, че свободата на потребителя е ограничена между избора “Повече инфо тук“, изборът на което отваря регламенти и обяснения и отново връща до същия надпис и „разбрах“. Оказва се, че за доставчиците прочетох е синоним на „съгласен съм“. Странно разбиране за симетрична комуникация. За него по-основателно е определянето: чист вид на безпомощност. Натрапването на тази безпомощност явно инхибира менталността и заплашва с премахване на бариерите на критичност. Така не толкова се затруднява вземането на решения, колкото се делегира тази дейност на някого или на нещо.
3. Промени в аудиторията и в масовото комуникиране
Както парната машина, параходите, влаковете и автомобилите са разширили автономията в придвижването и общуването, така и компютрите, заедно със свързването им в Голямата мрежа, са носител на нов тип преимущества за хората. Особеността е, че всички предпоставки за преимущество изискват целенасочено овладяване. Спрямо съвременните интелигентни устройства и конгломерата от техните логически и физически съвкупности този процес видимо е незавършен, особено когато става дума за психиката, комуникирането и социалните отношения.
3.1. Стресът и психическото претоварване
Концепциите за стреса са едни от най-коментираните през последните няколко десетилетия. Идеята е на канадския лекар Ханс Селие [26]. Той свързва стреса със затруднена адекватност за отговор спрямо промените в заобикалящата среда. Става дума за сложни изменения в психичната регулация на взаимодействието между нервната и ендокринната системи. Стресът води до напрежение, което в определен момент става непосилно за личността (тя изпада в дистрес) и поведението ѝ става неадекватно. Интензивната днешна комуникация и произтичащите от нея промени в отношенията провокират идеята за съществуване на специфичен комуникационен стрес. Неговото регулиране е в ръцете колкото на съпротивяващата се личност, толкова и на управлението на псевдоинтелекта (доколкото интелигентността също е тясно зависима от способността за ориентиране в заобикалящата среда) в дигиталното пространство. Изразът на този стрес е видим в ежедневието. Хората прекарват все по-голяма част от денонощието под натиска на информационната доминация.
В статията „Приближава ли краят на телевизията?“ Феликс Рихтер [27] се позовава на изследвания на компанията Зенит и публикува графика, от която се вижда, че в световен план, осредненото време, което потребителите прекарват в Мрежата или пред телевизора, се изравнява. От гледна точка на комуникационния стрес е интересен вторичният прочит на данните. Според него през 2009 г. всеки човек отделя за телевизия и за интернет общо 16,38% от денонощието си (236 минути или 3,93 часа). За 2018 г. същият показател е 23,13% (333 минути или по 5,55 часа). През 2009 г. по-голямата част от това време (188 мин/ден) е отделяно за телевизия, която е еднопосочна по комуникационния си характер (само излъчва съобщения и няма пълноценна обратна връзка). През 2018 г. времето за телевизия остава почти същото (173 мин/ден), но за сметка на това, към него се прибавят още 160 мин/ден, прекарани пред екрана на персонален компютър или на някакво мобилно информационно устройство, където връзката е почти симетрична и участието на комуникатора – далече по-ангажирано. Същите резултати показват, че тенденцията е към нарастване на общото време, отделяно сумарно за интернет и за телевизия [28]. Достигнатите стойности изправят психиката пред сериозни промени: 23,13% с тенденция към увеличаване не са малка част от денонощието и е интересно за сметка на какво се реализира тази активност, т.е. какво пренебрегва днешният човек. Липсата на близо 6 часа, прекарани пред телевизора или в интернет, не може да не се отрази на съня, на движението, на контактуването и на други активности от ежедневието, в които личността формира своя характер. Явно е, че новостите заплашват с промени социалната същност на човека.
3.2. Влияние върху аудиторията и медиите
През последните две десетилетия се вижда, че множеството на медиите става все по-пластифицирано и едновременно с това се разширява по обхват. То губи формите, към които обществото е привикнало. Дигитализирането и пренасянето в Мрежата, освен че налагат коренна промяна на предлагането и привличането на интерес, променят и управляемостта на тези процеси. Освен това мрежовизирането включва в медийната игра неподозирани участници, каквито са някои общности, формирани спонтанно във форум, в конкуренцията на онлайн игра или около някаква тема, пусната с хаштаг в социалните онлайн платформи. Тези общности се проявяват като активни комуникатори и безкомпромисно налагат своята визия за социалната значимост в случващото се. Такива псевдопроизволни намеси в социалното интерпретиране предизвикват съществени колизии в обществото. Причината е, че отразяването на социалната значимост в случващото се изисква съответната експертност, а все още тази експертност е основна функция на журналистиката [29] и вероятно ще остане такава и в бъдеще.
3.2.1. За бъдещето на журналистиката
Според професор Клаус Шваб, учен-икономист, основател и несменяем председател на Световния икономически форум в Давос, визията за близкото бъдеще предполага смесване и взаимно усилване на съществуващи с новопоявили се технологии и всичко това отвежда към смесване на физическата с цифровата реалност [30]. В такива условия журналистическият труд е един от първите, които подлежат на автоматизиране [31]. В същото време, особеност, която се очертава като съществена е, че автоматизирането не е еквивалентно с изземване на функциите и прехвърлянето им на новите технологии. Причината е, че компютрите не разполагат с възможности като тези за емпатия, за състрадание и за социална интерпретация [32]. Въпросното разминаване предполага, че журналистиката, PR-ът и още много други професии, които имат отношение към постигането на симетричност и едновременност в масовите възприятия и настроения, не могат да бъдат заменени пълноценно от изчислителната метафора, когато става дума за публично фокусиране върху социално значими събития.
3.2.2. Аудиторията под влиянието, упражнено чрез изкуствен интелект
След интернет светът не е същият. Една от причините е, че са променени връзките (свързаността) и интензивността на отношенията между хората. Това рефлектира и върху степента, в която обществото предпазва от несвойствени намеси механизмите на своето функциониране. Днес такива намеси безспорно съществуват и една малка част от тях се вижда в начините, по които се влияе върху аудиторията. Това влияние става все по-прецизно и изисква все по-сложен инструментариум. В такава роля влизат компютрите и Голямата мрежа, които позволяват не само употребата, но и все по-честото подменяне на мисленето с компютърна метафора и то във все по-широк план и във все по-голяма дълбочина.
• Компютърните игри в мрежа и социалното интерпретиране
В груповите игри спонтанно се формира мрежа от взаимоотношения. В онлайн игрите тези процеси протичат значително по-бързо и по-ясно се вижда смесването на реален с изкуствен интелект. В мрежовите интернет игри, редом с конкурентните отношения, протичат виртуални срещи, водят се дискусии, по особен начин се обсъждат реални социални събития, провеждат се гласувания и т.н. Всичко това е намеса в социалното филтриране на публична информация. Френските психиатри М. Отфьой и Д. Велеа [33] описват тридневен събор, в рамките на който, през 2003 г. представителите на Транснационалната република, на Двойната монархия на Елгаланд и Варгаланд, на Ладония и Саботаж – все виртуални страни от компютърна игра, се срещат (не виртуално) на високо равнище в Хелзинки. Събитието се провежда не толкова, за да се срещнат „на живо“ геймърите, а за да се коментира днешното реално общество. Според организаторите на събитието това не е критика [34], но се вижда, че става дума за активност, която се доближава до журналистиката и изисква съответната експертност. По какви критерии се формира тази експертност в онлайн гейминга? Случайно ли протичат тези процеси или са под контрол – контрола на някакъв странен изкуствен интелект или на участниците, или на някой от тях?
• RSS хранилките – предпочитането срещу предлагането
RSS (Really Simple Syndication) feed е своеобразна хранилка [35] за информация. По силата и спецификата на организираността си, този инструмент също се намесва в социалното отношение, което потребителят проявява към случващото се. Този протокол автоматично публикува едни и същи съобщения в различни сайтове. Само веднъж пусната в обмена, чрез RSS feed една новина се мултиплицира почти лавинообразно. Така един сайт си набавя много повече съобщения, отколкото може да събере, и лесно се превръща в обемисто издание. „Хранилката за информация“ зависи както от търсенето на отделния представител на онлайн аудиторията, така и от сложните договорености между собствениците на хостове. Зависи и от организацията на мрежата – колко бърза е свързаността, има ли достъпност и т.н. Управлението на тези процеси не е популярно и често негативите и позитивите се приписват на изкуствения интелект. Така истинските участници и организаторите на манипулациите в предлагането на информация остават скрити и прокарват намеренията си необезпокоявани от публичен контрол. В същото време, волно или неволно, тези комуникационни играчи: 1) режисират преднамерено темите и, моделирайки интересите на личността, се намесват в дневния ред на обществото; 2) правят реципиента безкритичен, като го претоварват с еднотипна информация и блокират неговото внимание. Личността губи интерес към ориентирането за случващото се, спира да изработва собствени решения и предпочита готови, изработени от друг предписания.
• Автоматизирано генерирани текстове и спонтанни новини от онлайн потребители
Автоматизираното генериране на текстове е в основата на компютърно симулираните новинарски съобщения (например преведени или сортирани от някакъв софтуер (софтуерен робот) и към затлачването на информационните канали с аматьорски снимки и съобщения, в които се интерпретира някакво видяно или чуто събитие. Дори и атрактивно написани, пленяващо, с въображение и без правописни грешки (понякога), в повечето случаи се вижда, че тези поствания са едностранчиви, недостоверни и само симулират журналистика. С убедителността си и силното си пристрастие, тези псевдоновинарски материали също изпадат в позицията на метафора и се доближават, дори попадат в обобщението, наречено изкуствен интелект. Неизвестното за визията на бъдещето е: В комуникационния капацитет на потребителя ли е всичко това?!
• Вирусните теми или масово „спускане по течението“ от съобщения:
Високата скорост на информационен трансфер, протоколите за избирателен обмен на информация, агресивното натрапване на съобщения и симулациите от страна на изкуствения интелект бързо предизвикват спадане на критичността. Това води до трудно вземане на решения и до все по-ярките и необясними случаи на спонтанно, но грешно масово поведение. Типични са както изненадващите флаш мобове, така и масовото увлечение по „вайръл“ съобщения. Там се генерира активност, която бързо прераства във физическата реалност на социалните отношения. В когнитивен план вирусното (англ. viral) съдържание не е интересно само със заразителността си, а и с темите, които го предизвикват. Причината е, че не всички конфликти провокират масова склонност към споделяне. Все още, както за хората, така и за роботите, не е ясно какво отключва „заразяването“ – темата, моментът или някаква харизматична (надарена от бога по неизвестни причини и неизвестно с какво) специфика, която звучи по-скоро ирационално.
Пример: Необяснимо звучат споделяния (онлайн и извън интернет) на позиции, като тази, че хлябът с хлебна мая е вреден (или поне – не полезен) и че спасението от този голям проблем е в приготвянето на квас. Темата има вирусно разпространение: При търсене по ключовата дума „квас“ една от най-разпространените у нас онлайн търсачки предоставя 6 760 000 резултата за 0,43 секунди [36]. Прочитът на заглавията показва, че става дума за квас, предназначен за хляб. Резултатът е странен, тъй като думата се употребява и за закваската за кисело мляко, за сирене и т.н. За сравнение, търсенето по ключов израз „хлебна мая“ в същата платформа дава само 33 400 резултата (около 20 пъти по-малко) [37], като още на втората страница се появяват реклами на производители, икономически съобщения и коментари за приватизацията на едноименно предприятие у нас.
Вирусното разпространение добива и физическо измерение – освен милионите постове в социалните онлайн платформи, по пазарите се отварят хлебарници за „хляб от квас“, появяват се и ентусиазирани странни клиенти, които имат и странни изисквания. Странни, защото освен играта на думи, между маята и кваса разликата не е голяма. Процесът на приготвянето на традиционния хляб включва специфично ферментиране на брашнено водната смес под действието на дрожди от вида Saccharomyces cerevisiae. Те са леки и се разпространяват лесно по въздуха, така че без затруднение се „хващат“ в съд с малко хранителна среда (например вода с малко брашно и захар). В популярната реч, получилата се ферментираща смес се нарича най-често квас. В промишлени условия продуктът се прави не със случайна, а с проучена за своите микробиологични качества култура, проверява се биохимично, концентрира се чрез филтриране, пресоване или лиофилизация и се продава като мая. Всъщност става дума за един и същ вид дрожди.
Заключение
Изкуственият интелект не покрива възможностите и качествата на човешката интелигентност, нито ги превъзхожда. По оперативен потенциал той се доближава до нея, като симулира логическа обработка и достига опасна близост. Това го определя като метафора в мисленето, а не като същински интелект.
Човешката когнитивност разполага с феноменална способност за откриване и създаване на логически връзки между различни съждения. Тази способност частично се имитира във функционалността на псевдоинтелигентните устройства, но те не работят със съждения, а с данни и не достигат до умозаключения, а само до изчислителни резултати. Това ги превръща в добри изпълнителни комплекси, но в лоши и дори опасни интерпретатори и модератори на социалното. Възникват заплахи за преднамерено частично блокиране на човешката когнитивност в измерението както на индивида, така и на малки или големи социални групи, и на цели общности.
Редом с ползите, изкуственият интелект допуска и предпоставки за заучаване на безпомощност, за снижаване до опасни граници на критичността в мисленето, затруднява правенето на избор и вземането на решения. Всичко това позволява реализации на управляемо в негативността си отражение върху поведението. Последиците заплашват с деформация съвременната личност, като влияят върху формирането на психични свойства, едно от които е характерът.
Пренебрегването на опасностите, които възникват заедно с навлизането на изкуствения интелект, заплашва с негативни отенъци визията за близкото цивилизационно бъдеще. Отговорността за преодоляването на тези негативи, както и за пълноценното прилагане на човешките постижения в реалността, е изцяло във властта на хората и се подчинява на човешкото мислене, а не на изчислителната метафора, доближила неговото съдържание. В този план прилагането на „Принципа за безопасност” придобива екзистенциален характер.
Бележки
[1] Отправката е към едноименната приказка на Ханс Кристиян Андерсен и към книгата „Пътешествията на Гъливер“ на писателя и журналист Джонатан Суифт (Swift, Jonathan: Travels into Several Remote Nations of the World in Four Parts. By Lemuel Gulliver, First a Surgeon, and then a Captain of Several Ships. London 1726, 1735, 1765 (пълно издание Works), 1915 (Prose Works)
[3]Descartes, R. A discourse on method. Dent, London, 1912 (Original work published 1637), p. 44. Цит. по: Шулц, Д., С. Шулц. История на модерната психология. София: Наука и изкуство, 2006, с. 53.
[4] Шулц, Д., С. Шулц. История на модерната психология. София: Наука и изкуство, 2006, с. 462.
[5] Barnden, John A.Metaphor and artificial intelligence: Why they matter to each other. In: Gibbs, J.R., Raymond, W. (Ed.) The Cambridge Handbook of Metaphor and Thought. Cambridge University Press, 2008, pp 311-338.
[6] Разминаването идва от английското прилагателно computing (изчислителен), което напоследък в популярната реч се свързва повече с компютрите, отколкото със самата операция на смятането.
[7] Газанига, М. Съзнанието като инстинкт. София: Сиела, 2019.
[8] Turing, Alan. Computing Machinery and Intelligence. Mind, Oct. 1950, Vol. LIX, N 236, pp. 433-460.
[9] Шулц, Д., С. Шулц. История на модерната психология. Наука и изкуство, София, 2006, с. 463. Цит. по: Searle, J.B. Minds, brains and programs. Behavioral and Brain Sciences, 1980, N 3, pp. 417-424.
[10] James, W. Psychology. US: Henry Holt and Co., 1890.
[11] Пак там.
[12] Поради огромния брой комбинации, все някъде смисъл и думи съвпадат и допускането е, че потребителите проявяват интерес предимно към такива съобщения. Проблемното разминаване е в бързината на тази своеобразна потребителска селекция. Популярността и масовостта са сигурни, но така ли е и с достоверността? Известно е, че ако сто души обявят една грешка за вярна, резултатът от тази грешка не се превръща в истина.
[13] Maslow A. H. Motivation and Personality. New York: Harpaer & Row, 1954.
[14] Сара Конрат, Эдвард О’Брайан и Кортни Хсинг. Изменения в диспозициональной эмпатии у студентов американских колледжей во времени: мета-анализ. В: Personality and Social Psychology Review (2010). Цит. по: Шваб, К. Четвертая промышленная революция. Москва: Эксмо, 2016, с. 80-81.
[19] Азимов, А. Аз роботът. Превод Т. Вълчев. В: Азимов, А. Избрани фантастични произведения в два тома: Т. 2.София: Народна младеж, 1989, с. 175.
[21] Шулц, Д. Психология на растежа. Модели на здравата личност. София: Наука и изкуство, 2004.
[22] Шулц, Д. Психология на растежа. Модели на здравата личност. София: Наука и изкуство, 2004.
[23] Chomsky, N. Syntactic Structures. 2th Ed. Berlin – New York: Mouton de Gruyter, 1962.
[24] Seligman, M. Helplessness: On Depression, Development and Death. San Francisco: Freeman, 1975.
[25] General Data Protection Regulation (EU) 2016/679 (GDPR) – регулация за защита на неприкосновеността на данните на европейските потребители
[26] Selye, H. Stress and Disease. Science,07 Oct 1955,Vol. 122, N 3171, pp. 625-631
[28] Въпросът дали тези форми са дигитални и кое е повече – времето пред компютъра или пред телевизора не стои на дневен ред, тъй като днешната телевизия се цифровизира и това ѝ придава някои предимства, характерни за онлайн комуникирането (записване и отложено гледане на програми, връщане на кадри и т.н.).
[29] Петров, Милко. Публицистиката – история, специфика, жанрове. Закономерности и форми на публицистичното творчество. София: ФОП на ВМЕИ „В.И. Ленин“, 1988.
[30] Шваб, К. Четвертая промышленная революция. Москва: Эксмо, 2016, с. 8.
[31] Шваб, К. Четвертая промышленная революция. Москва: Эксмо, 2016, с. 33.
[32] Шваб, К. Четвертая промышленная революция. Москва: Эксмо, 2016., с.78.
[33] Отфьой, Мишел, Дан Велеа. Пристрастени към интернет: От скуката до зависимостта. Прев. П. Герджиков. София: Рива, 2011, с. 40.
[34] Пак там.
[35] Feed (англ.) – хранилка.
Библиография
1. Азимов, А. Аз роботът. Превод Т. Вълчев. В: Азимов, А. Избрани фантастични произведения в два тома. Т. 2. София: Народна младеж, 1989.
2. Войнов, М., А. Милев. Латинскобългарски речник. София: Наука и изкуство, 1990.
3. Газанига, М. Съзнанието като инстинкт. София: Сиела, 2019.
5. Отфьой, Мишел, Дан Велеа. Пристрастени към интернет: От скуката до зависимостта. Прев. П. Герджиков. София: Рива, 2011.
6. Петров, Милко. Публицистиката – история, специфика, жанрове. Закономерности и форми на публицистичното творчество. София: ФОП на ВМЕИ „В.И. Ленин“, 1988.
7. Шваб, К. Четвертая промышленная революция. Москва: Эксмо, 2016.
8. Шулц, Д., С. Шулц. История на модерната психология. София: Наука и изкуство, 2006.
9. Шулц, Д. Психология на растежа. Модели на здравата личност. София: Наука и изкуство, 2004.
11. Barnden, John A.Metaphor and artificial intelligence: Why they matter to each other. In: Gibbs, J.R., Raymond, W. (Ed.) The Cambridge Handbook of Metaphor and Thought. Cambridge: Cambridge University Press, 2008, pp. 311-338.
12. Chomsky, N. Syntactic Structures. 2th Ed. Berlin – New York: Mouton de Gruyter, 1962.
13. Descartes, R. A discourse on method. London: Dent, 1912 (Original work published 1637)
14. Gibbs, Jr., Raymond W. (Ed.) The Cambridge Handbook of Metaphor and Thought. Cambridge: Cambridge University Press, 2008.
16. James, W. Psychology. US: Henry Holt and Co., 1890.
18. Maslow, A. H. Motivation and Personality. New York: Harpaer & Row, 1954.
22. Searle, J.B. Minds, brains and programs. Behavioral and Brain Sciences, 1980, N 3, pp. 417-424.
23. Seligman, M. Helplessness: On Depression, Development and Death. San Francisco: Freeman, 1975.
24. Selye, H. Stress and Disease. Science,07 Oct 1955,Vol. 122, N 3171, pp. 625-631.
26. Turing, Alan. Computing Machinery and Intelligencе. Mind, Oct. 1950, Vol. LIX, N 236, pp. 433-460.
Цитат формат (Suggested Bibliographic Citation):
Атанасов, Пламен.Изкуственият интелект в контекста на онлайн комуникацията: Предизвикателство към „принципа за безопасност“. В: Медии и обществени комуникации. Изд. УНСС; Алма комуникация. 2019, №42. ISSN 1313-9908. Available from: http://www.media-journal.info/?p=item&aid=393
дата на публикуване: 19.09.2019, Четвъртък, 09:57
прочетена: 6048 пъти