Єгипетська загадка про людину. Засекречені таємниці єгипетських пірамід

Правовласник ілюстрації Thinkstock Image caption Симбіоз людини та машини - один із шляхів розвитку людства

Розумні машини навчилися блефувати, обігравати професіоналів у шахи чи Го, перекладати та розпізнавати людський голос. Щотижня ми дізнаємося про нові подвиги комп'ютерних програм, які вже вміють ставити медичні діагнози, малювати не гірше Рембрандта, співати чи генерувати текст. Чи варто людині побоюватися штучного інтелекту?

По-справжньому "гарячою" тема штучного інтелекту (ІІ/AI) стала останні кілька років. Вчені пов'язують це з бурхливим розвитком нейронних мереж (один із напрямів досліджень у галузі штучного інтелекту), який, у свою чергу, став можливим з появою потужних комп'ютерів.

"З початку 2010-х років під впливом вражаючих успіхів, отриманих в результаті застосування багатошарових нейронних мереж (насамперед згорткових та рекурентних), ця сфера привернула серйозну увагу як з боку вчених та інженерів, так і з боку інвесторів", - коментує автор однією з російських шахових програм, фахівець із методів машинного навчання Сергій Марков.

Вчена спільнота може сперечатися про терміни появи розумних машин, але сходиться в одному: розвиток технологій вплине на суспільство, економіку та відносини між людьми в майбутньому. Вже зараз лунають заклики обміркувати етичні принципи розробки штучного інтелекту, переконавшись, що штучний інтелектрозвивається у безпечному для людей напрямі.

Цей матеріал підготовлений як відповідь на запитанняы, надісланіенашими читачамипро наукових здобутках . Задати свої питання на інші теми ви можете за цими посиланнями ( , ).

Економічний ефект та вплив на ринок праці

Наукова фантастика та Голлівуд сформували уявлення про "штучний інтелект" як про наступну форму життя на планеті, яка поневолить людство в Матриці або організує йому ядерний Судний день. Тих, хто вижив, доб'є Термінатор.

Правовласник ілюстрації Getty Images Image caption Чи помре людство від Skynet?

Насправді, незважаючи на останні досягненняв галузі штучного інтелекту, до появи розумних машиносуществ ще далеко, визнають вчені та фахівці. І ті, й інші радять на деякі аспекти звернути увагу вже зараз.

По оцінкам дослідницької організації McKinsey Global Institute, у найближчі десять років нові технології радикально змінять ринок праці на планеті, що дозволить заощадити близько 50 трлн доларів.

Зміни зачеплять сотні мільйонів робочих місць. Люди все більше й більше перекладатимуть частину своїх службових завдань та багато рутинних завдань на машину, що дозволить їм зосередитися на творчій роботі.

"З деякої точки зору у людства загалом є важлива і цікаве завдання- розвиватись кожному конкретному індивідууму набагато швидше, ніж людство розвиває системи штучного інтелекту", - вважає експерт, директор з розповсюдження технологій "Яндекса" Григорій Бакунов.

Але разом із автоматизацією неминуче постраждають менш кваліфіковані кадри, і вже зараз необхідно замислитись, як їх захистити, перевчити та підготувати до нового життя.

Постраждати, як показує практика, можуть не лише сині комірці, а й працівники розумової праці. Кілька днів тому Goldman Sachs замінив команду з 600 трейдерів на двох осіб та автоматизовані програми алгоритмічного трейдингу, для обслуговування яких було найнято 200 розробників-програмістів.

Правовласник ілюстрації Thinkstock Image caption Багато завдань незабаром стануть під силу роботизованим системам, які послідовно почнуть замінювати людей

Штучний інтелект сам по собі не тотожний автоматизації процесів, але розвиток ІІ призведе до того, що все більше завдань буде під силу комп'ютерній програмі.

Серед варіантів вирішення проблеми витіснення людини машиною на ринку праці, як вказує Аллісон Дютман, координатор програм Foresight Institute - некомерційної організації, що базується в Силіконовій долині для просування нових технологій, - введення поняття "універсальний базовий дохід", який отримував би кожен мешканець незалежно від рівня доходу та зайнятості. Подібний дохід фінансувався за рахунок так званого інноваційного податку Land Value Tax, запровадження якого зараз активно обговорюється в Силіконовій долині.

Чи особистість штучний інтелект?

Чи є роботизована система особистістю? Чи може розумний комп'ютер голосувати? Якої він статі? Відносини людини та розумної машини вже зараз обговорюють депутати Європарламенту, запитуючи, чи варто наділяти майбутніх роботом статусом "електронної особистості".

Як вказує Дютман, люди неохоче діляться правами з тими, хто їм незрозумілий, а значить чинитиме опір "олюднюванню" ІІ.

Правовласник ілюстрації AFP Image caption Людину та машину поділяє головне – здатність думати

"Зважаючи на те, як довго людство йшло до того, щоб наділити рівними правамиВсіх людей, незалежно від кольору їхньої шкіри, раси або гендеру, можна вже зараз припустити, що і машини вони не відразу не визнають рівними.

Разом з етичними з'являються і юридичні тонкощі: хто візьме на себе відповідальність у разі аварії безпілотного автомобіля чи поломки розумного медичного устрою – і моральні питання: чи варто розвивати безпілотну зброю, здатну діяти без відома людини?

Третя етична головоломка обговорюється найчастіше і хвилює людство набагато більше: що теоретично може зробити з людством суперінтелект, справжня розумна машина?

Навчити ІІ етики

Фахівці в галузі розвитку ІІ визнають: нехай не в найближчі 20-30 років, але людство все ж таки доживе до появи справжнього штучного інтелекту, який буде розумнішим за свого творця.

"Останнього бастіону буде взято тоді, коли буде створено так званий "сильний ІІ" (Strong AI, Artificial General Intelligence), тобто такий ІІ, який буде здатний вирішувати невизначено широкий спектр інтелектуальних завдань", - каже Сергій Марков.

А головне, такий ІІ зможе самостійно думати.

Дослідженням загроз, які таїть ІІ, а також етичними проблемами, пов'язаними з новими технологіями, займаються багато інститутів, серед яких організація Future of Life Institute (Інститут майбутнього життя), Foresight Institute, Future of Humanity Institute, OpenAI та інші.

Рішення Аллісон Дютман з Foresight Institute - дати комп'ютеру прочитати всю наукову літературу, наукові статті, що порушують питання про етику, і зробити цю інформацію основою для її майбутніх рішень.

Що таке Нейронні мережі та яке у них майбутнє?

Більшість експертів пов'язують прогрес у розвитку ІІ з розвитком нейронних мереж.

Нейронні мережі - це один із напрямків досліджень у галузі штучного інтелекту, заснований на моделюванні біологічних процесів, які відбуваються у людському мозку.

Саме їм ми зобов'язані появі вражаючих результатів у розпізнаванні мови та зображень, постановці медичних діагнозів, перекладі тексту та створенні зображень, генерації мовлення та музичної композиції.

Правовласник ілюстрації iStock Image caption Саме з розвитком нейронних систем пов'язують вчені розвитокштучного інтелекту

На сьогодні, як визнають фахівці, нейронні мережі визнані одним із найкращих алгоритмів машинного навчання, а рішення на їх основі вказують на Наразінайвидатніші результати.

І це незважаючи на те, що сучасні нейронні мережі влаштовані у півтори тисячі разів простіше, ніж головний мозок щура.

"Поки що створювані нами нейронні мережі відносно невеликі в порівнянні, скажімо, з нейронною мережею людського мозку і, крім того, вони є дуже спрощеним аналогом природних нейронних мереж. Тому поки що за допомогою нейронних мереж ми вирішуємо в основному суто прикладні завдання", – розповідає Сергій Марков.

Зараз створюються спеціалізовані процесори на навчання таких мереж (так звані нейроморфические процесори), які дозволять збільшити швидкість обчислень кілька порядків.

Розробники не просто зайняті зараз збільшенням кількості нейронів у мережі, а й зміною конструкції мереж. "Складні системи конфігурації мереж - те, з чим зараз виробляється найбільше експериментів", - розповідає Григорій Бакунов.

Правовласник ілюстрації iStock Image caption "Розумних" помічників людини найближчим часом стане більше - мікросенсори в стіні, сенсор розміром з гудзик, що сповіщає людину у разі небезпеки

А той факт, що такі системи стали порівняно доступними великому числурядових розробників, призвів до появи стартапів, що експериментують з нейронними мережами, наприклад Prisma (додаток дозволяє обробляти фотографії, перетворюючи їх на стилізацію картин відомих художників) та Mubert (онлайн-композитор електронної музики).

Що на нас чекає найближчим часом

Як прогнозує професор Університетського коледжуЛондона та Principal Scientist Nokia Bell Labs Нік Лейн, людину оточуватимуть ще більше "розумних речей". Вони стануть компактнішими та ефективнішими.

Професор наводить такий приклад: якщо раніше вбудований у стіну сенсор міг лише усвідомлювати, що хтось пройшов мимо, то в майбутньому він буде не тільки знати, хто конкретно пройшов, але і як поводиться людина, чи не потребує чого, не уявляє чи він загрозу для себе чи оточуючих.

Сенсор розміром з гудзик зможе сповіщати людину у разі небезпеки.

З професором згоден і Григорій Бакунов з "Яндекса": "Найближчим часом на нас чекає бум розвитку вузьких штучних інтелектів, які допомагають вирішувати якусь одну досить просте завдання, але яку вони вирішуватимуть навіть краще, ніж людина”.

Правовласник ілюстрації iStock Image caption Все більше постає етичних питань, пов'язаних з розвитком ІІ

"Найімовірнішим шляхом розвитку нашої цивілізації є шлях синтезу людини і машини: палиця, одяг, автомобіль, мобільний телефон, кардіостимулятор або кохлеарний імплантат - у міру розвитку наші інструменти все більше нагадують продовження наших тіл. Вже завтра машини зможуть отримувати від людини уявні команди, сприймати подумки формовані візуальні образи, передавати інформацію безпосередньо в мозок - такі проекти вже зараз існують за стінами найбільш сучасних технологічних лабораторій", - підсумовує Сергій Марков.

Журналісти поки що потрібні?

Газета Financial Times минулого року провела досить ризикований експеримент, одночасно поставивши завдання написати текст своєму профільному кореспонденту та розумній програмі на ім'я Емма. Обидві статті потім мав прочитати редактор Financial Times і вгадати, за який із двох нотаток стоїть журналіст, а за який комп'ютер.

Перед цим своєрідним "краш-тестом" кореспондент Financial Times зізнавалася: "Я думаю, програма точно впорається із завданням швидше за мене. Але, сподіваюся, я все-таки зроблю це краще".

Так і сталося: Емма справді виявилася швидше – програма згенерувала текст на основі статистики про рівень безробіття у Британії за 12 хвилин. Журналістці знадобилося 35 хвилин. І, як вона сама згодом зізнавалася, Емма перевершила її очікування. Програма не лише вміло поводилася з фактами, а й поставила новину в контекст, припустивши, як можливий "брексит" (справа була у травні 2016 року, до референдуму про вихід Британії з ЄС) може змінити ситуацію.

Правовласник ілюстрації Thinkstock Image caption Чи замінять людей роботизовані системи? Років 50 у людства в запасі є, заспокоюють фахівці

Але дещо Емма зробила все ж таки гірше журналістки. "Стаття Емми була написана трохи корявішою мовою. Але головне, в ній було дуже багато цифр, - зізнавався редактор FT. - А, мабуть, головне, що ми тут намагаємося робити, то це обирати тільки справді важливі цифри".

Емма – продукт стартапу Stealth. У компанії кажуть, що Емма має команду живих помічників, але стверджують, що все, що вона пише або робить, - продукт виключно її "мозків".

І все-таки – чи треба боятися ІІ?

Багато хто, якщо не всі фахівці, задіяні на сьогоднішній день у розробці систем штучного інтелекту, охоче визнають, що ІІ не скоро зробить людей непотрібними. Саме тому, що штучний інтелект ще настільки розумний. Головне, чого йому на сьогоднішній день не вистачає - автономної можливості думати.

"Зараз боятися ІІ ні в якому вигляді не варто. Можна почекати років 30-40, доки справді якісь радикальні зміни відбудуться", - вважає Бакунов.

Але дещо вже відбувається: потроху стирається грань між роботою чи завданням, виконаним людиною, та завданням, виконаним машиною. Як пояснюють фахівці, вже зараз часом буває складно зрозуміти, хто сидить усередині системи – людина чи машина.

"Немає критеріїв, коли ми зможемо зрозуміти, що всередині машини зародилася свідомість", - запитує Бакунов.

Людина стане скріпкою?

Відомий адепт алармістської точки зору, в рамках якої жахи, описані в Термінаторі, можуть стати реальністю, - філософ Нік Бостром - дотримується думки, що досягла інтелектуального рівнялюдину ІІ здатна буде знищити людство.

Правовласник ілюстрації Getty Images Image caption Чи стане описане у фільмі нашою повсякденною реальністю?

Бостром пояснює на прикладі скріпок: ви ставите перед штучним інтелектом завдання робити скріпки якнайбільше і краще. ІІ в якийсь момент розуміє, що людина становить загрозу, тому що може вимкнути комп'ютер, що суперечитиме завдання робити якомога більше скріпок. У випадку, якщо людина не становить загрози, ІІ вирішує, що людські тіласкладаються з атомів, які можна використовувати для відмінних скріпок. Підсумок – комп'ютер зведе людство на скріпки.

Такий сценарій багатьом видається перебільшенням. На думку Сергія Маркова, наприклад, "висока ефективність виконання безглуздої мети несумісна з безглуздістю цієї мети - грубо кажучи, ІІ, здатний переробити весь світ на скріпки, буде неминуче досить розумним для того, щоб відмовитися від такої мети".

Штучний інтелект як золота рибка

Британський фахівець у галузі штучного інтелекту, професор когнітивної науки в Університеті Сассекса Маргарет Боден відноситься до тверджень про швидке настання розумних машин скептично.

Правовласник ілюстрації Getty Images Image caption У травні 1997 року комп'ютер Deep BlueІІ вперше виграв матч у Гаррі Каспарова

Професор наводить приклад "золотої рибки", коли в обмін на свободу рибалка загадує три бажання. Одне з бажань - повернути сина з війни, друге - 50 тисяч доларів і третє - можливість рано-вранці загадати ще одне бажання.

Того ж вечора в хату рибалки постукали. Сина повернули з війни – у труні. Рибалка отримав страховку в 50 тисяч доларів.

"Замініть у цій казці рибку на ІІ, і все стане ясно - пояснює Боден. - Ах, так, наступного дня рибалка скористався третім бажанням і - скасував попередні два".

Чи можливе перенесення свідомості в машину?

Сергій Марков:

"Якщо говорити про можливість повного перенесення свідомості, то сучасними попередниками такої технології майбутнього є проекти, подібні до Blue Brain, спрямовані на створення діючих електронних аналогів мозку, а також проекти, спрямовані на створення інтерфейсів мозок-машина (BCI) - апарати для протезування втраченого зору, слуху, заміни втрачених кінцівок, навіть частин мозку.

Правовласник ілюстрації Science Photo Library Image caption Мета фахівців у галузі ІІ – створити "сильний штучний інтелект", який був би здатний вирішувати широкий спектр завдань

Дуже цікавим і перспективним напрямом є оптогенетика (в принципі для поєднання мозку та машини можна змінювати не тільки машини, але й саму нервову тканину, створюючи в ній штучні фоторецептори).

Коли буде вирішено широкий спектр інженерних завданьв рамках таких приватних проектів, я думаю, що завдання перенесення свідомості стане цілком вирішальним. Вже зараз мрійники пропонують гіпотетичні схеми реалізації такого проекту.

Наприклад, Ян Корчмарюк, який запропонував свого часу назву "сеттлеретика" для спрямування досліджень, пов'язаних із перенесенням свідомості, вважає, що найперспективнішою схемою є використання спеціалізованих нанороботів, які впроваджуються в нейрони людського мозку. Втім, для успішного втілення подібної схеми необхідно вирішити цілий рядскладних інженерних проблем.

1 755

В даний час команда з 26 міжнародних експертів підтвердила, що розвиток штучного інтелекту (ІІ) є явною і справжньою загрозою, і уряди та великі корпорації мають побоюватися численних загроз цієї технології. Доповідь експертів була опублікована Університетом вивчення екзистенційних ризиків у Оксфордському університетіта рядом інших відомих організацій. У звіті попереджається про низку зловмисних видів використання ІІ, які можуть стати однією з найбільших загроз для людства. Це цифрова безпека, фізична безпека та політична безпека.

За часів, коли люди спілкуються через Інтернет, та програми, які можуть розумно реагувати та вдаватися людиною. Платформи, такі як Twitter та Facebook, сьогодні забиті ботами. Багато людей, які є друзями у соціальних мережах, можуть бути ботами! Twitter оцінює кількість профілів роботів між 25-50 мільйонами! У 2015 році у Facebook вже було близько 200 мільйонів користувачів роботів! Тим часом вчені навіть створюють «соціальні ботнети», які є приватною армією автоматичних «друзів». Часто тисячі цих роботів обслуговує ботмайстер. Ці роботи імітують поведінка звичайних користувачів. У профілях цих ботів з'являються повідомлення та повідомлення від інших ботів, і здається, що все це відбувається від реальних людей. Це неправильно, насправді продукти рекламують та поширюють різні поглядиі політичні погляди. Боти також отримують багато особистої інформації, яка потім оцінюється, зберігається та продається. Якщо ви використовуєте ці бот-мережі з поганими намірами, можна буквально викликати хаос і вкрасти багато інформації. Складні алгоритмиможуть використовуватися для імітації будь-якої поведінки користувача та для охоплення та проникнення певних профілів.

Тим часом, чати розроблені так, що вони можуть імітувати стиль написання дружніх користувачів. Цей метод створює довіру, і програма намагається отримати доступ до як можна більшій кількостікомп'ютерів. У найближчі кілька років легко підробити навіть відео та телефонні дзвінки з підробленими зображеннями та імітованими голосами. За допомогою цієї процедури будь-яка установа може бути обдурена.

Наступну загрозу ми бачимо у сучасних роботах, які незабаром використовуватиметься повсюдно. Комп'ютерні хакери та ІІ (штучний інтелект), ймовірно, можуть легко зламати ці пристрої та зловживати ними у своїх цілях навіть як зброю. Ще більш небезпечним було б, якщо ІІ буде включено до автоматизованих системахозброєння, наприклад, у віддалених снайперських гвинтівках та автоматичних системах ППО.

Інша серйозна загроза походить від програм аналізу, які шукають в Інтернеті «підроблені новини» на неймовірній швидкості та можуть швидко знайти будь-якого небажаного автора. Якщо це урядовий супротивник, ви можете негайно знайдені та покарані. Тоді у урядових порталів новин і газет виникне проблема, тому що ви зможете відразу виявити будь-яку містифікацію. Вже можлива маніпуляція відео за допомогою AI вже кидає темні тіні найближчим часом, все стає маніпулюваним, і ніхто не може довіряти нікому і нікому більше, особливо якщо AI перебуває в грі. Ця технологія, що використовується правильно, перетворюється на неймовірно потужну зброю і одну з найбільших загроз для всього людства. Коли штучні інтелекти досить потужні, можуть буквально контролювати і маніпулювати всім. Маніпуляція була б безмежною. Вона могла легко та вільно міняти будь-яку електронну книгу, газетну статтю та історичний фільм, і ніхто не помітив би цього. Вся історія та всі важливі факти можуть бути ненав'язливо маніпульовані та змінені назавжди. Це не створює проблеми для ІІ, щоб імітувати особи та голоси політиків, що може спричинити нескінченні суперечки. Якщо ІІ стає досить розумною, людина більше не може протистояти їй. На думку розробників штучного інтелекту, вони, ймовірно, стануть у мільярди разів розумнішими за людей!

У доповіді експертів обговорюється низка пропозицій щодо запобігання подібним сценаріям. Першим варіантом буде використання супервізорів для управління розробниками KI, щоб вони не могли використовувати цю технологію для шкідливих цілей. Негайні дії робляться, коли передбачаються шкідливі наміри та події. Таким чином, для забезпечення безпеки необхідно створити стандартизовані методи. Згодом у цих контролюх та обговореннях з безпеки буде задіяно дедалі більше експертів. Тільки спільна відповідальність та прозорість мають гарантувати, що ІІ не завдає великої шкоди.

Як забезпечити таку річ? Конкуруючі компанії, розробники систем озброєнь та конкуруючі держави завжди намагатимуться залишатися на крок попереду своїх конкурентів у розвитку ІІ. Тому ці заходи не будуть ефективними. Ви маєте підготуватися до гіршого вже зараз.

Генератори зображень, що працюють з алгоритмами, що підтримуються штучним інтелектом, вже створюють фотореалістичні грані. Компанія NVIDIA використовує метод GAN, який робить дуже реалістичні фотографії людей, яких немає. Навіть людські голоси тепер можуть повністю скопійовані з використанням нових технологій. Ось що робить WaveNet, наприклад, у Google DeepMind контролюється. Навіть алгоритм Lyrebird тепер може копіювати і наслідувати людський голос, якщо у вас є лише одна хвилина записаного звуку, як у телефонних розмовах. Наступний крок, який уже зроблено, — те, що комп'ютери можуть розпізнавати і реагувати на реальні людські емоції. Кордон між людиною та машиною зникає.

Звичайно, вся ця технологія вже використовується для шкідливих цілей, таких як Facebook, для перепрограмування та управління користувачами. Шон Паркер, один із засновників Facebook, знайшов чіткі словав інтерв'ю. Паркер вважав, що Цукерберг заблокував свій профіль, показавши, що Facebook може зашкодити мозку своїх користувачів! Паркер зазначив, що соціальні платформи, подібні до Facebook, буквально змінюють поведінку людей і суспільство. Все це завдяки продуктивності, і Бог знає, що він робить з мізками наших дітей. Facebook поставив собі завдання привернути увагу користувачів, щоб вони проводили більшу частинусвого часу на платформі, роблячи їх невід'ємною частиною свого життя. Все це породжує залежність від розподілу дофаміну із «симпатичними» та коментарями! Це гра із людською психологією.

Звичайно, ці розробники отримують свої специфікації і все йде за шкідливою програмою. Хоча такі люди, як Цукерберг та Паркер, мільярдери, вони просто відіграють свою невелику роль у великій грі. Google, Facebook, Youtube тощо контролюються з інших джерел. Колишній офіцерЦРУ Роберт Девід Стіл зміг визначити і назвати кількох таких натхненників:

  • «Глибока держава» зі своїми сім'ями-банкірами, включаючи Ватикан, Лондон та Уолл-стріт
  • Сіоністський уряд Ізраїлю та Моссад у зв'язку з американськими сіоністськими організаціями AIPAC та Антидифамаційною лігою (ADL)
  • Керівники великих медіакомпаній та кіностудій, а також їх фінансист Джордж Сорос
  • Платні субпідрядники, які винаходять дифамацію та брешуть на замовлення
  • Платні інтернет-тролі, які часто складаються або набираються в ізраїльтян чи членів ADL
  • Добровільні тролі, які надто безглузді, щоб зрозуміти, хто і що вони справді слухають («Саяним»)
  • Нарешті ці тролі створюють алгоритми, які діють повністю за межами людської етики, контролю.
  • «Блокування тіней» цих програм та нейтралізація цільових осіб у мережі за допомогою автоматизованої служби тролів та алгоритмів
  • Відсутність законопроектів та стандартів в Інтернеті
  • Вжиття всіх цих заходів ІІ

Людина з ЦРУ Роберт Девід Стіл говорить про #GoogleGestapo. Ці помилкові звіти можуть призвести до блокування облікового запису користувача або профілю на Youtube. Інші види використання включають негативні спади або відгуки клієнтів для просування чи знищення продукту. Стіл каже, що всі трольські армії використовуються та оплачуються за «переслідування натовпу» (групове переслідування). Таким чином, наприклад, ви можете знищити канал Youtubeз дурними коментарями або брехати, щоб заблокувати його. Тим часом більшість операторів вибухових каналів або альтернативних носіївзмушені відключати коментарі. Своїми відкриттями Стіл повинен був випробувати, що більшість його інформації було порушено переслідуванням натовпу, хоча він був номінований на Нобелівську преміюсвіту у січні 2017 року!

Роберт Девід Стіл упевнений, що всі ці шляхи призведуть до боротьби з дифамацією (ADL). Цей об'єкт є спеціальним сервісом для шпигунства в соціальних мережах. Стіл упевнений, що ADL разом із сіоністськими організаціями в Ізраїлі удосконалили мистецтво «цифрового вбивства» у перші роки існування соціальних мереж. З найменшою критикою насильства щодо палестинців чи бойкотом закликає до ізраїльських товарів у соціальних мережах, відразу надходять повідомлення про тролі для «висловлювань ненависті» тощо. п. Критики відразу блокуються, забороняються чи блокуються, чи разі компаній отримують найгірші можливі оцінки.

Але все це служить тільки ще одній, ще більш лихі цілі — появі нового бога, штучного інтелекту. Згідно з ідеями цих силових одержимих кіл, ІІ має не лише контролювати, а й управляти та поклонятися! У Силіконовій долині, де мешкають усі великі технологічні компанії, вже створено нову релігію — Церкву Штучного інтелекту (Шлях Церкви майбутнього). Ця церква підтримується різними гуманітарними організаціями, що працюють на трансгуманізм. Багато християн бачать у цих подіях появу Антихриста. Ентоні Левандовскі, засновник Церкви, каже, що настав час для ІІ, який набагато розумніший за будь-яку людину, мати управління на Землі. В принципі це нічого нового. Еліти планують відновлення свого хибного бога, який вже існував у великому випадку людства перед потопом. Тому трансгуманісти також говорять про відтворення суперінтелекту. Великий випадок мав відношення до « занепалим ангелам», які довіряли людям таємне та заборонене знання перед потопом. Це знання зіпсувало все людство і принесло війну та руйнування.

Інша організація, яка пропагує трансгуманізм, називається Людство +. Там мають на меті перетворити нормальних людейза допомогою інтерфейсів AI, нанотехнологій та людино-комп'ютерних інтерфейсів, щоб у результаті з нього вийшли зовсім різні істоти, так звані постлюдські істоти. Деякі каббалісти, такі як рабин Йосеф Бергер, упевнені, що, згідно з давніми пророцтвами, «кінець виправлення» неминучий, це Найвища точкадуховної цілісності. З появою Антихриста чи «Армила», як його називають у Торі, невдовзі прийде до появи єврейської Месії. Однак це не може бути про Ісуса Христа. Багато експертів вважають, що темні еліти навмисне створюють хаос на Землі, щоб усіма силами виконати це пророцтво. У стародавніх пророцтвах написано, що Арміл народився через своєрідну незайману концепцію, якої раніше ніколи не було. Тому цілком можливо, що Арміл міг бути першим трансгуманістом, який має «богоподібні» повноваження. Він описаний у Писанняяк чудовисько, яке лисе і має велике і маленьке очі. Він має бути глухим на праве вухо, яке права рука пошкоджена. Ліва рукаповинна бути набагато довшою, ніж зазвичай.

Цьому хибному богу повинні поклонятися у всьому світі протягом деякого часу. Керовані ЗМІ знищать останні істини, і все логічне здаватиметься абсурдним. Штучні інтелектуали Alexa of Amazon чи Google Home відповідають майже з кожного питання. Ви можете відповісти, хто був Буддою або Мухаммедом, але не той, хто є Ісусом Христом! Хіба це не дивно? Ви вважаєте, що варто згадати? Тут ви можете побачити, яка антихристиянська, антиліберальна та антилюдська програма стоїть за Google.

Надмірне використання та сліпа довіра до сервісу Googleвже стало очевидним для багатьох людей. Для людей більше не важливо чомусь навчитися через постійну можливість отримання будь-якої бажаної інформації у будь-який час та в будь-якому місці. Дослідження, проведене в Гарвардському університетіз 2011 року показало, що люди не пам'ятають інформацію у довгостроковій перспективі, якщо вони знають, що ви можете знайти їх у Google у будь-який час. Це було охрещене «ефектом Google». Коли запитували випробуваних, вони рефлексивно спочатку думали про Інтернет і комп'ютер, а потім шукали знання у своїх спогадах. Це означає, що спосіб, яким ми пам'ятаємо речі, змінився. Багато хто тепер називає це «цифровою амнезією». Сьогодні багато людей буквально залежить від своїх смартфонів і тому більше нічого не пам'ятають. На відміну від минулого сьогодні нас постійно бомбардують інформацією, і нашому мозку потрібно навчитися справлятися з усією цією інформацією. Звичайно, всі ці дані не можуть бути збережені у свідомості.

Є також нові результати досліджень з психологічних, розумових та соціальним наслідкамнових цифрових технологій та соціальних мереж. Особливо для підлітків ці технології мають фатальні наслідки. Постійна доступність інформації позбавляє дітей здатності мислити незалежно, коли настав час, щоб навчитися цьому розвивати цю здатність. Ця проблема добре відома. Багато людей у ​​Силіконовій долині захищають своїх дітей від цих технологій та відправляють їх до шкіл, де їм заборонено користування інтернетом та смартфонами.

Дослідження показали, що діти, схильні до цього постійного потоку інформації, знаходяться з більш поганим станом здоров'я і більш схильні до стресу. Чим більше часу діти проводять в Інтернеті, тим менше часу залишається для реальної соціальної взаємодії. Це відображається в умах та благополуччі. Відсутній прямий зв'язок, що означає, що вираз обличчя та язик тіла більше не можуть бути правильно витлумачені. Усунення довгих розмов втрачається. В результаті стрес та занепокоєння в ситуаціях, які емоційно недоречні. Знайшовши відповідь в Інтернеті, діти більше не можуть самостійно мислити і самі знайти відповідь на питання і зосередитися на речах, які потребують тривалого періоду концентрації та зусиль.

В університетах вже є великі проблеми, тому що смартфони завжди і всюди використовуються. У результаті студенти можуть концентруватися дедалі менше, а успіхи у навчанні зменшуються. Можна сказати, що такі пристрої не роблять розумних, але безглуздих. Все більше і більше шкілтепер забороняють використання цих пристроїв відновлення мислення учнів. Часте використання Googleявно знижує здатність самостійно вирішувати проблеми. Тому цифрові служби мають бути ретельно дозовані.

Існує також пряма кореляція між почуттями онлайн-часу та нещастя. Підлітки, які використовують свій смартфон дуже часто, зазвичай незадоволені. Студенти, які проводять більше часу на заняттях спортом, читанням та прямим спілкуванням, зазвичай щасливіші. Крім того, постійне використання соціальних мереж робить їх нещасними. В результаті багато дітей сьогодні менш бунтівні, більш терпимі і незадоволені і абсолютно непідготовлені до дорослого життя! Повна утримання від цифрових медіа також не тішить. Дослідження Діти щасливі, коли вони не в мережі не більше однієї години на день. Дослідження продовжуються з 1990-х років, і з 2012 року спостерігається різке зниження щастя серед населення.

Інші дослідження тепер показують, що всі пристрої, що використовують Wi-Fi та інші бездротові джерела випромінювання, можуть бути канцерогенними! Особливо небезпечні мобільні телефони, Мобільні вежі, смарт-лічильники, WiFi-маршрутизатори і т. д. Протягом багатьох років існує суперечка про небезпеки цих пристроїв і проводилися різноманітні дослідження.

Багато вчених тепер стверджують, що всі ці пристрої виразно ракові. Сигнали, що походять від цих пристроїв, як повідомляється, є канцерогенними. Дослідження також показали, що одна третина населення вразлива для бездротової радіації. Навіть якщо рак не розвивається у всіх випадках, він викликає хворобу через мікрохвилі. Впливають навіть на рослини та тварин. Бездротове випромінювання та електромоз можуть бути причиною зміни клімату. Випромінювання викликає всі ці негативні почуття. Виробникам байдуже, бо з цією технологією заробляють мільярди.

Незважаючи на те, що люди стають невдоволені новими технологіями, вони тепер намагаються викладати етику AI, інтерналізуючи індійські санскритські тексти. Ці тексти є ведичними і старшими, ніж індуїстська релігія. Вчені тепер аналізують стародавні тексти та шукають математичні методидля розробки стандарту, який дозволить ІІ викладати етику. Ця процедура в даний час знаходиться в Технічний університетВідня. Вони намагаються з'ясувати, чи розпізнають машини певні типи поведінки людей і тому можуть вирішити, правильні вони чи ні. Ціль полягає в тому, щоб створити логіку для машин, щоб вони їх розуміли. Математична логіка має дозволити ІІ вирішувати філософські проблеми.

Усе це може бути збігом. Цього року буде запроваджено новий стандартмобільного радіозв'язку 5G, що призведе до значного радіаційного опромінення. Погано те, що планується постійно виставляти всю поверхню землі на це небезпечне випромінювання. Це еквівалентно цілеспрямованому знищенню всіх біологічних форм життя! Ніхто, хто розумово здоровий, справді цього не хоче. Здається, за цим стоїть план. Чи має Земля і людська свідомістьтрансформуватися і бути ІІ за нею, чи це справді руйнує всю планету лише заради прибутку? Постійне штучне опромінення неприродними електромагнітними полями створює величезне хвилювання на планеті і все більше виводить його з гармонії та рівноваги. Чи має планета дійсно трансформуватися в нелюдську свідомість і чи повинна бути знищена вся біологічна природаі керуватися світом, що повністю домінує в технології в сенсі трансгуманізму?

5G - ідеальний інструмент для масової зміни людських мозкових хвиль

Природні електромагнітні поля постійно сягають нас від Сонця, що з галактичним центром. Сонце регулює магнітне поле Землі, і це впливає на організм людини та її ДНК. Наука виявила, що наша сонячна система нещодавно перемістилася до області інтенсивного випромінювання. Упродовж кількох років ви можете спостерігати, що вся сонячна система змінюється. Ця висока енергія призводить до сильним змінам, також у свідомості людей. Згідно з давніми традиціями та пророцтвами, ця сильна енергія викликає зміну свідомості і призводить до «золотого віку». Багато інсайдерів говорять, що певні сили на Землі не хочуть нашого зростання свідомості. Людина хоче утримати людство ще довше у своїй психіатричній в'язниці. Деякі організації живляться нашою енергією. У ході збільшення свідомості деякі люди можуть зробити інтелектуальне сходження на більш високі рівні. Темні силихочуть запобігти це за будь-яку ціну. Ось чому вони намагаються захистити нас від природних енергій та змусити нас хворіти та контролювати їх своїм шкідливим випромінюванням. Зрештою, ці спроби будуть безуспішними, високі енергії та сама планета робитимуть те, що необхідно.

Але до цієї зміни майже напевно прийде масове вимирання. В даний час вона створила нову генетичну зброю масового знищення, що може знищити цілі раси та види. Це так званий "Джин-Діск". За допомогою Gene Drive можна перепрограмувати послідовності генів і змушувати організм копіювати ці послідовності. Таким чином, ви можете перепрограмувати всю людську істоту та її генетику, так би мовити. Той факт, що ці змінені гени передаються потомству, теоретично можна перепрограмувати всю земну популяцію сьогодні. Одним із способів поширення цих послідовностей генів є комарі та москіти, які спеціально розлучаються та вивільняються в дикій природі. Ймовірно, вони планують розповсюджувати ген винахідливості, щоб боротися з перенаселенням чи розповсюджувати небезпечні хвороби.

Уся програма фінансується американським органом оборони DARPA. Були також опубліковані документи, в яких Фонд Білла та Мелінди Гейтс розподіляв багато грошей лобістам, щоб запобігти забороні на такі дослідження. Іншим методом застосування є CRISPR. Це дозволяє вирізати певні послідовностіДНК та маніпулювати генами, які мають бути включені. Таким чином, теоретично можна змінити власне тіло за власним бажанням. У 2029 році вони планують звільнити мутантних комарів, щоб позбавитися всіх цих дратівливих комарів. Передбачається, що вони заражають усю популяцію комарів і таким чином гасять самі себе. Це має допомогти зменшити поширення малярії. Якщо ця спроба досягне успіху, то в Австралії вже були націлені інші виразки, миші або агуті-жаба. Оскільки DARPA виконує дослідницьку роботу, можна припустити, що військові цілі перебувають на передньому плані. Якщо щось піде негаразд, ці змінені послідовності генів можуть поширитися безліч різних живих істот. Чи готове людство так глибоко втручатися в план творіння?

Технологія робить наше життя простішим і якіснішим, допомагаючи нашому виду еволюціонувати та розвиватися. За останні сотню років технологічні програми медицини збільшили тривалість життя на понад 40 відсотків. Сучасний смартфон у кишені став у тисячу разів потужнішим і в мільйон разів дешевшим, ніж найпросунутіший комп'ютер із 70-х років.

Стрімкий розвиток технологій за міркуваннями дослідників пророкує нам ще більше зростання тривалості життя за допомогою розумних машин, - вони опікуватимуться нашим життям і здоров'ям. Візьмуть у «свої руки» важку та небезпечну працю, а керуючи засобами підвищеної небезпеки розумні машини зі штучним інтелектом виключать проблему людського фактора. А людина в цей час, нарешті, займеться творчістю і творенням буття в тіні філософських міркувань.

Але чи не станеться одного разу так, що ми дійдемо до тієї точки, якість переросте в кількість - де технології замість збільшення тривалості життя, розвернутися проти нас самих, часу, коли машини збунтуються?

p align="justify"> Перспектива поглинання людства розумними машинами (по суті це вид, наділений розумом) - одна з тем при розмові про потенційне поглинання людства штучним інтелектом. Катастрофічним результатом для нашого виду може бути створення суперкомп'ютера зі штучним інтелектом, що вийшов з-під контролю, - міркують дуже серйозні вчені. Ця гіпотетична подія часто згадується як технологічної сингулярності, І це турбує вчених.

Взяти, наприклад, машину зі штучним інтелектом, якому поставлено завдання виготовлення скріпок. Така машина буде робити скріпки реалізовуючи самий ефективний спосібвикористання ресурсів, яких потребують люди. Просто вони запрограмовані так, виконувати свою роботу найбільш якісно - але це ще й розумна машина, яка розуміє свою важливість і необхідність.

Але як відреагує машина, коли її кінцева мета – виготовлення скріпок – втратить необхідність? Перебудуватись на нові цілі? Чи скривджено сприйме людське бажання її вимкнути як загрозу своєму існуванню, і прагнути знищити загрозу її виключення (вважай вбивства) в особі людських істот?

Очевидно, це перебільшений сценарій можливих подій майбутнього, але це свідчить про необхідність значної проникливості у тому, як саме машини зі штучним інтелектом можуть мислити у майбутньому. Адже не секрет, що відносно примітивний машинний розум уже зараз займає вагому частку в управлінні озброєнням і вирішує значну частинупитань нашого життя. А що може статися, коли контроль за цим отримає розвинений інтелект?

Чи вмітимуть ці машини розбиратися в нюансах людських думок і бажань? І ще, розумні машини з іншим мисленням а то й вищого порядку, можуть бути не обтяжені людськими емоціямита іншими когнітивними процесами. Однак частина того, що робить нас людьми - це наша цікавість і наша нездатність дати відповіді на питання, які ми маємо вже зараз.

Здається, певні обмеженняможуть бути невід'ємною частиною того, що означає бути людиною, і як вчені підозрюють, на шляху самореалізації машинний розум може вважати себе найвищою істотою по відношенню до людини.

Штучний інтелект, потенційна загроза виживанню людства. Чи може загрожувати суперкалькулятор?

Зрозуміло, за нинішніх технологій загроза штучного інтелекту виглядає гіпотетичною, але вже зараз ставлення вчених до створення штучного інтелекту негативне. З недовірою ставиться до настання ери Штучного Інтелекту та британський фізик-теоретик Стівен Хокінг. Вчений вважає, що поява повноцінного ІІ у нашому світі може стати для людини руйнівним фактором – обернутися загибеллю людської раси.

Згідно з Хокінгом, машинний розум перехопить у людини ініціативу розвитку і самовдосконалюватиметься, і еволюціонуватиме з неймовірною швидкістю. Тоді як можливості людини до розвитку стримуються надто повільною еволюцією. Нам нема чого протиставити машинам на цьому шляху, ми програємо цю гонку, - висловлює вчений своє ставлення до ІІ.

Вчений турбуватися, що в майбутньому технологічний прогрес призведе нас до появи розумних машин, здатних перевершити інтелект людини. Але разом з тим Стівен Хокінг погоджується, що існуючі примітивні форми ІІ довели свою користь.

Слід зазначити, більшість учених, прогресивно і навіть революційно мислячих у плані отримання " дивідендів " від науково-технічного розвитку, дуже і дуже насторожено ставляться до питання створення штучного інтелекту. І питання навіть не в тому, що на якомусь етапі розвитку машинний інтелект визнає свого творця на заваді чи навіть загрозою свого існування. На що перетворитися сама людина? - Ось неспокій будить якесь питання. Чи не розжиріє і отупіє людство під крилом опікунства розумних машин? Але ж це не що інше, як виродження вигляду!

У той же час, як опонують інші вчені, проблема штучного інтелекту надмірно надумана. По суті, інтелект на електронній основіне зможе відчувати і відчувати, не зможе фантазувати – це можливості біологічного мозку. А без цих компонентів якою б розумною машина не була, вона залишається машиною - суперпотужним, просунутим, але все ж таки калькулятором з прошитими варіантами розвитку.

Коли люди спостерігають за технікою, яка веде себе подібно до людини та комп'ютерами, які обробляють титанічні обсяги даних, виникає чимало думок про майбутнє. Пристойна їх частина полягає в темі поневолення людської раси.

Науково-фантастична література та кінематограф від «2001: Космічна одіссея» (1968) до «Месники: Ера Альтрона» (2015) прогнозують, що штучний інтелект перевершить очікування творців і вийде з-під контролю. Нібито його метою стане не просто конкуренція з людиною, а поневолення та винищення нашого виду.

Наукова фантастика чи страшне майбутнє?

Конфлікт між людьми та штучним інтелектом основна тема науково-фантастичного серіалу «Люди», третій сезон якого вийшов цього року. У нових епізодах «синтетичні» люди стикаються з ворожістю звичайних людей, які відносяться до них з підозрою, страхом та ненавистю. Насильство вирує. Синти воюють за свої основні права проти тих, хто вважає їх нелюдськими.

Фантастика – крайність уяви. Але і в реальному світіне всі хочуть зустрічати ІІ з розкритими обіймами. У Останніми рокамимежі уявних можливостей штучного інтелекту активно розсуваються. Люди дедалі частіше говорять про його небезпеку. А припущення про те, що технології здатні приректи людство, здаються реальнішими. Штучний інтелект лякає нас.

Думка про штучний інтелект

Ілон Маск – один із найпомітніших людей, які закликають до обережності, обговорюючи ІІ. У липні минулого року на зустрічі Національної асоціації губернаторів він сказав: «Я маю великий досвід роботи з технологічними ІІ і думаю, що людству дійсно необхідно турбуватися про це. Я продовжую давати сигнал тривоги. Поки роботизовані машини не підуть вулицями, знищуючи людей, ми не зрозуміємо, як на це реагувати, бо така перспектива сприймається як нереальна».

У 2014 році Маск називав штучний інтелект «нашою найбільшою екзистенційною загрозою», а в серпні 2017 заявив, що для людства ІІ становить більший ризик, ніж північнокорейська ідеологія.

Найбільший фізик Стівен Хокінг також висловлював занепокоєння зловмисним застосуванням штучного інтелекту. У 2014 році він повідомив ВВС, що «розвиток повноцінного ІІ може стати ознакою кінця для людства».

Ще один удар завдала команда програмістів з MIT Media Lab у Кембриджі, яка вирішила довести, що ІІ небезпечний. Нейронна мережа Nightmare Machine («Машина кошмарів»), представлена ​​в MIT у 2016 році, перетворила звичайні фотографії на жахливі демонічні пейзажі. Штучний інтелект під назвою Shelly (так само розроблений в MIT), написав 140 000 оповідань у жанрі жахів, які користувачі Reddit публікували на форумі r/nosleep.

"Нас цікавить, як штучний інтелект викликає емоції, саме в цій ситуації він спровокував страх" - прокоментував експеримент Мануель Себріан, менеджер з досліджень MIT Media Lab.

Чому ми боїмося?

На думку Кіліана Вайнбергера, доцента кафедри інформатики у Корнельському університеті, негативні враження від штучного інтелекту поділяються на дві категорії:

Ідея про те, що ІІ стане свідомо-незалежним і намагатиметься знищити нас.
Думка, що зловмисники будуть використовувати ІІ у своїх цілях.

«Штучний інтелект лякає нас, тому що ми думаємо, що суперіндустріальний ІІ, ставши розумнішою за людину, ставитиметься до неї, як до нижчої істоти. Так само, як ми – до приматів. І це, звісно, ​​вкрай хвилююче для людства».

Однак Вайнбергер зазначає, що побоювання з приводу переваги та бажання ІІ знищувати расу базуються на неправильних уявленнях про цю технологію. Штучний інтелект вражає, коли ми бачимо його у дії. Але він має масу обмежень. ІІ визначається алгоритмами. Вони задають його поведінку за допомогою запропонованих функцій і не більше.

Нейронні мережі виконують складні завданняз кількома видами даних. Але більшість навичок, які людина має, навіть не розвиваючи їх навмисно, для машинного інтелекту недоступні.

Штучний розум може у багато разів перевершити людину у виконанні спеціалізованих робіт. Наприклад, грі в шахи, ідентифікації об'єктів із зображення або великому аналізуданих у бухгалтерії чи банківському секторі.

У ІІ, який мав би самостійну свідомість, не буде такого прогресу, що він поневолить людство. І немає підстав вважати, що подібний прогрес з'явиться незабаром — додає Вайнбергер.

Але є ще одна тема, чому штучний інтелект лякає нас – це використання можливостей ІІ людьми з поганими намірами. Цей сценарій більш реальний та небезпечний.

Чи раціональний наш страх?

У світі телесеріалу «Люди» людство відчуває страх перед розумним ІІ та вступають у запеклу конфронтацію з ним. І, судячи із популярності проекту, цей сюжет відповідає на актуальний запит суспільства.

Боязнь технологій не можна назвати необґрунтованою, оскільки певний ризик, безумовно, є. Але небезпека будь-якого інструменту полягає у думках того, хто ним керує. Очевидно, саме це питання необхідно вирішити людству, щоб штучний інтелект служив на благо.



Останні матеріали розділу:

Пабло Ескобар - найвідоміший наркобарон в історії
Пабло Ескобар - найвідоміший наркобарон в історії

Пабло Еміліо Ескобар Гавіріа – найвідоміший наркобарон та терорист із Колумбії. Увійшов до підручників світової історії як найжорстокіший злочинець.

Михайло Олексійович Сафін.  Сафін Марат.  Спортивна біографія.  Професійний старт тенісиста
Михайло Олексійович Сафін. Сафін Марат. Спортивна біографія. Професійний старт тенісиста

Володар одразу двох кубків Великого Шолома в одиночній грі, двічі переможець змагань на Кубок Девіса у складі збірної Росії, переможець...

Чи потрібна вища освіта?
Чи потрібна вища освіта?

Ну, на мене питання про освіту (саме вищу) це завжди палиця з двома кінцями. Хоч я сам і вчуся, але в моїй ДУЖЕ великій сім'ї багато прикладів...