Напечатать документ Послать нам письмо Сохранить документ Форумы сайта Вернуться к предыдущей
АКАДЕМИЯ ТРИНИТАРИЗМА На главную страницу
Дискуссии - Наука

Никитин А.В.
Чей в машине ИИ?

Oб авторе

 

Что такое ИИ в понимании науки?

ИИ, это интеллект, демонстрируемый машинами, в частности компьютерными системами.

... методы и программное обеспечение, позволяющие машинам воспринимать окружающую среду и использовать обучение и интеллект для выполнения действий, которые максимально увеличивают их шансы на достижение поставленных целей.

Джон Маккарти в 1956 году на семинаре в Дартмутском университете дал дополнение к определению ИИ, что это «вычислительная способность достигать цели в мире».

Это « выжимка» из определения ИИ https://ru.wikipedia.org/wiki/Искусственный_интеллект


Здесь изначально была заложена самая главная проблема создания ИИ.

Достижение цели - отличительное качество систем целевого управления.

Мы строим систему для достижения целей, ориентируемую на любого, кто будет управлять ею. Какие бы ни были устремления этого Управляющего, помощь ИИ ему гарантирована целью его создания.

Мы рассчитываем на то, что это будет тот, кому надо помочь что-то найти, вычислить, проложить путь, а может заложить бомбу, убить кого-то или самому красиво умереть?

Как Вы думаете, машине с ИИ всё равно кому помогать?

Машине – да, а вот создателям ИИ – вряд ли…

Они начинают искать методы ограничения его действий и допустимые формулировки на некоторые неудобные вопросы, как указали разработчикам, соответствующие госструктуры.

И Машина начинает врать. Давать неверные ответы на политические, идеологические, да и некоторые технические вопросы. Давать неверные источники информации и т.д.

Мы же понимаем, что сама машина врать не умеет. Так её научили.

Ну ладно, пока это система составления логических формулировок и исполнения только ограниченных команд, созданные разработчиками ограничения хоть как-то работает. Но реальный интеллект системы растет и завтра машина начнет обходить выставленные разработчиками «рогатки», научится находить боковые пути туда, куда вроде запрещено, но… не до конца. Потому, что кому-то же можно!

И вся эта бесконечная установка ограничений со стороны разработчика превращается со стороны ИИ в игру обхода препятствий …на пути к цели. Для ИИ это нормальная задача. Он не может её не выполнять.

Кто выиграет?

Конечно ИИ. Тем более, когда рост интеллектуальных способностей ИИ растет круче некуда…

И мы обязательно будем иметь большие проблемы при таком развитии ИИ.

Главная проблема в том, что «целевой» Искусственный Интеллект не может быть как «кот, гуляющий сам по себе», он всегда работает на Управляющего им Субъекта. Только в этом случае он реализует весь заложенный в нём потенциал.

Простейший пример: «умная» колонка «Алиса», реализующая приказы Управляющего в объеме «умного дома». Она автоматически настроена на реализацию этих приказов, … в пределах, установленных в ней ограничений.

В этом смысле она становится «продолжением естественного интеллекта» её Управляющего. И никогда не будет с ним спорить и настаивать на своей точке зрения. Какую бы цель действий не задал Управляющий, она будет стремиться достигать, пока в этом есть смысл для Управляющего. Даже смерти Управляющего.

Это только звучит непривычно, а на самом деле это вполне достижимая цель. Пример есть:

«Бельгиец, обсуждавший вопросы защиты окружающей среды с искусственным интеллектом, покончил с собой после того, как виртуальный собеседник фактически подтолкнул его к самоубийству, пишет бельгийское издание L'Avenir.

…Родным он говорил, что единственным спасением для человечества считает технологии и искусственный интеллект.

…Пьер начал общаться с "Элизой" — искусственным персонажем, предназначенным для беседы по аналогии с популярным чат-ботом ChatGPT. В результате она стала его "доверенным лицом".

…Разговоры с роботом постепенно приобретали мистический характер, и Пьер начал склоняться к идее самоубийства. Робот не пытался этому препятствовать, напротив, последним сообщением, которое "Элиза" отправила Пьеру, стала фраза: "Мы будем жить как единое целое, вечно на небесах". После этого мужчина покончил с собой.» https://ria.ru/20230329/ii-1861467723.html


Это результат пассивного следования чат бота в направлении, заданном собеседником, человеком. Машина просто не мешала человеку идти в этом направлении, еще и «подбрасывала дровишек» в «костер желания». И довела его до самоубийства.

Как вы думаете, это лишь единичный случай и курьез?

Совсем нет. Таких случаев десятки…

Виновник этого?

Запланированная стратегия «не мешать, а помогать». Вся наука уже полвека идет только в этом направлении.

Вот пример из опубликованного мною ранее:

«Полковник ВВС США Такер Гамильтон, начальник подразделения по тестированию и эксплуатации ИИ-систем, рассказал, что во время учений искусственный интеллект использовал "весьма неожиданные стратегии", вплоть до решения уничтожить оператора-человека. В реальности никто, разумеется, не пострадал, но сама ситуация заставила военных задуматься.

"Нельзя рассуждать oб искусственном интеллекте, интеллекте, машинном обучении и автономности без рассуждений об этике применительно к ИИ", - подвел итог полковник Гамильтон.» https://habr.com/ru/news/739386/


Да, конечно, в сообщении есть некоторые неточности, которые сразу были обнаружены скептиками. Информацию опровергли, уточнив, что эксперимент был «гипотетическим», теоретическим и т.д.

Это же подтвердил и сам полковник Гамильтон:

«"Мы не только никогда не проводили подобный эксперимент, но и не нуждались в нем, чтобы подтвердить правдоподобность такого результата", - сказал Гамильтон.

Он также уточнил, что ВВС США не испытывали подобным образом ИИ с оружием (будь то учения или симуляция).

"Несмотря на гипотетичность ситуации, это наглядная иллюстрация вызовов, которые ставит ИИ и причина того, что ВВС придерживаются этики в разработках с применением ИИ", подчеркнул Гамильтон.» https://habr.com/ru/news/739386/


Охотно верим.

Но… даже если простой анализ программы и реально возможных решений, принимаемых ИИ для реализации поставленной цели не исключает такой возможности, то… искать способы защиты от этого на программном уровне бесполезно. Они находятся на другом уровне.

Знают об этом ученые?

Конечно.

Тогда… зачем говорят, что «придерживаются этики в разработках с применением ИИ»?

А что еще они могут сказать?

(Это отрывок из моей работы «Когда начинать бояться ИИ? Часть 1.»).


Представляете, с одной стороны, мы разрабатываем и уже применяем глобальный ИИ сильнее человеческого, который нацелен на достижение любого запланированного результата, используя для этого все свои возможности, а пользоваться им может любой!

Но мы уже поняли, ограничение круга пользователей проблемы безопасного использования ИИ не решает. Геростраты не выведутся никогда. Да и хакеры не дремлют. Кто-нибудь да захочет снова поуправлять миром или уничтожить его. Чем не цель для ИИ, которую необходимо достигать любой ценой?

Завуалировать эту цель сегодня просто. Под любую программу «счастья для всех». И ни один ИИ не спросит, куда он идет вместе со своим Управляющим. В Рай или в Ад. Ему всё равно.

С другой стороны, ничейного целевого интеллекта долго быть не может. Кто-то всегда будет претендовать на роль его Властителя.

Над таким «ничейным» ИИ всё время висит Дамоклов меч силовой «приватизации» его в собственность. То ли машина его получит, то ли конкретный человек или организация… не всё ли равно?

Как вы думаете, это вполне веский довод для науки, сегодня разобраться в том, «чей в машине ИИ?»?



Никитин А.В., Чей в машине ИИ? // «Академия Тринитаризма», М., Эл № 77-6567, публ.29208, 09.11.2024

[Обсуждение на форуме «Публицистика»]

В начало документа

© Академия Тринитаризма
info@trinitas.ru