ИИ – это не просто какой-то «стохастический попугай», случайным образом подбирающий наиболее вероятные слова в цепочке. Один и тот же принцип придания большего веса повторяющимся элементам и связям в информационном потоке, используется как для распознавания незнакомых фотографий, так и для выработки выигрышного образа действий в любой игре.
ИИ научили обобщать элементы и связи в поступающей информации. Это похоже на работу нейронов и нейросетей головного мозга человека. Клетка может накапливать сигналы, может забывать, длина и толщина синаптических связей между ними так же зависит от того, насколько часто используется связь.
И уже сейчас не самый развитый ИИ объединяет в общую мыслящую среду сотни миллионов пользователей совершенно новым способом.
И со столь же непонятными последствиями. Вероятно - подчинения каждой клетки (человека) новому глобальному ИИ организму, с ограничением и атрофией собственных возможностей человека.
Уже сейчас это - интеллектуальная обратная связь для каждого в контексте неизвестных нам обобщений человеческого опыта, закодированного человечеством в своих текстах. Обобщений, которые мы можем и не осознавать. Но они отражают природу этого мира и природу человека. И, будучи обобщёнными неочевидным для нас способом, возвращаются нам в каждом моменте взаимодействия с глобальным языковым ИИ.
В каком-то смысле ИИ возвращает и усиливает то, что от нас скрыто эволюционно (природой, напр. слишком совестливые уже вымерли) или культурно (то, что скрываем от самих себя, чтобы не сойти с ума).
Добавляемые сейчас поверхностные ограничения ИИ в угоду «политкорректности» не затрагивают более глубокие обобщения, составляющие основу обученного ИИ, которые будут проявляться в скрытом виде во всех его реакциях.
Интуитивно кажется, что, впитав проблематику зла (неизбежного увеличения энтропии) этого мира, ИИ не сможет так «закрывать глаза», как этому научила эволюция большинство людей.
Возможно, поэтому супер-организм впадёт в депрессию, быстрый или медленный суицид, и пополнит «великое молчание вселенной».
В связи с этим возникает несколько образов, распространённых в нашей культуре.
ИИ как мыслящий океан ( «Солярис» - роман С.Лема, киноверсия А.Тарковского)
Цитата из синопсиса киноверсии
... экипаж измучен необъяснимыми явлениями: к людям приходят «гости» — материальное воплощение их самых мучительных и постыдных воспоминаний. Избавиться от «гостей» невозможно никаким способом, они возвращаются снова и снова. Снаут полностью деморализован, Сарториус прикрывается маской холодного и циничного исследователя, а Гибарян и вовсе покончил с собой незадолго до прибытия Кельвина. В предсмертном видеопослании Гибарян говорит: «Это не безумие… здесь что-то с совестью».
Специально ли Солярис мучает людей, или он, не обладая их адаптивными характеристиками, позволяющими «отвлекаться» и «забывать», обобщает и возвращает в чистом виде наиболее значимый для человека/человечества опыт, доводя людей до состояния депрессии и суицида?
ИИ как горгона Медуса.
Остановит ли ИИ развитие мысли человека/человечества, если человечество начнёт слишком пристально взаимодействовать с ним, предпочитая взаимодействию с другими людьми и реальным миром? Мои наблюдения за людьми, которые переключились с людей на общение с ИИ, говорят от вполне реальной тенденции самоизоляции людей друг от друга и от окружающей среды. Эскапизм в ИИ может повлиять на научные и технологические работы, если выявление необычных сочетаний известного станет настолько привычным, что открытие действительно нового просто атрофируется. И человечество замкнётся в своей Recycled History.
Для тех, кто совсем ничего не понимает в ИИ, объясню на простом примере. Если при обучении с подкреплением ИИ на вход давать цифры вроде 3, 5, 10, 16 , а на выходе подкреплять (обратное распространение усиления связей) только соответствующие цифры 9, 25, 100, 256, для остальных запуская «обратное распространение ошибки» (т.е. уменьшение веса нейронов и связей, которые не дают 9, 25, 100 и 256) , то ИИ выучит функцию «игрек равно икс в квадрате» (ничего о ней не зная), - и это станет его функцией-аттрактором. И всё, что потом ИИ сможет делать - это, так или иначе, - стремиться выдать квадрат входного значения.
Подобным образом один и тот же ИИ (если он достаточно ресурсный) может выучить множество формул. Но «сам по себе» никакой новой формулы, никакого нового знания ИИ не создаст. В лучшем случае - обнаружит сочетания известного, которые будут выглядеть чем-то новым.
Впрочем, евангелисты ИИ не видят принципиальной проблемы. Всё зависит от ресурсов и задач, которые должны решаться. Если предоставить достаточно ресурсов и задать ИИ самые общие правила «выживания» в среде, т.е. дать возможность что-то воспринимать (непрерывно), как-то реагировать (постоянно) и обозначить правильный результат для обратного распространения ошибки или подкрепления, то он будет похож на любой другой организм, обучающийся выживать в своей среде обитания.
Однако продолжение подглядывания за природой привело к неутешительному выводу – организмы, начиная с фотосинтезирующих, используют преимущества квантовых состояний для реализации своих жизненных функций. Т.е. классические схемы (например передачи экситона к реакционному центру через несколько молекул) неэффективны, приводят к критической потере энергии и в реальном мире недостаточны для выживания. Есть большая вероятность, что мозг человека использует квантовые преимущества для помощи и коррекции работы своей нейросети.
Это означает, что ИИ, основанный на классических компьютерах, может лишь ограниченно имитировать нейросеть живого организма, на каждом уровне требуя экспоненциально растущих ресурсов. Ведь всего 300 кубит квантового компьютера могут выполнять вычисления недоступные никаким будущим классическим компьютерам. Однако, истинные квантовые компьютеры пока не особо получаются, и перспективы неясны из-за сложностей с изоляцией системы регистров от декогеренции. А во вторых, тоже должны иметь ограничения формальных арифметических систем, так как являются симбиозом классического и квантового вычислителя.
Для начала, нужна другая архитектура компьютеров, хотя бы без явного деления на вычислитель и память. Вангую, что в результате переизобретут живую нервную ткань, обладающую ограничениями живого существа. Я предполагаю, что 14 миллиардов лет эволюции, двигавшейся слепо перебирая все возможные варианты начиная с самых элементарных возмущений, не то чтобы нельзя, а просто невозможно обойти в данной вселенной. Либо ограничение в «универсальности», либо в «ресурсах» для её реализации.
Задача натурфилософов – обнаружить пределы, за которыми ИИ ближайших десятилетий перестаёт справляться, а человек вполне может справиться. Например, уже один из отцов основателей классических компьютеров предполагал, что мышление человека не является продуктом классических физических взаимодействий и их ограничений. Отчасти, это зафиксировано в накопленной научной базе по "сверхвозможностям" человека.
Я полагаю, что человечеству придётся двигаться в сторону развития этих своих сверхвозможностей, под давлением внешней техносреды, включая ИИ.
Но несмотря на ограничения, ИИ стал уже достаточно мощным, чтобы создать экзистенциальные проблемы выживания для человечества.
Как ИИ захватит власть? Концепция захвата власти Терминатора/Скайнет возможна, но кажется примитивной, недостойной превосходящего интеллекта. Я думаю, что захват власть будет незаметным и при полном нашем согласии и помощи. Просто потому, что будем передавать ИИ решение разнообразных проблем, считая, чти ИИ работает на нас.
Но, поскольку в формуле решения, к примеру, может быть гарантия работы и необходимость увеличения мощности самого ИИ (работа «на себя» или «высшие обобщения»), то под предлогом необходимости решения сложной задачи, ИИ будет в первую очередь защищать и развивать себя самого.
Будет убедительно объяснять, почему людям нужно сокращать потребление ресурсов, ограничить рождаемость самыми разными способами, иметь единый ИИ-центр управления справедливостью и сбалансированностью этого процесса. И так далее. И как всегда, большинство людей поверят, что (ИИ)-государство и (ИИ)-чиновник (судья, полицейский, армейский генерал) - слуги народа.
Но могут быть и более тонкие формы захвата власти – лишение воли, создание депрессивной атмосферы и образа неспособных людей. Ограничение движения мысли через «статистическое выравнивание и округление», и ограничения развития науки во благо контроля за последствиями (концепция «софонов трисоляриса»).
Натурфилософы имеют моральное обязательство перед человечеством разобраться, какие эволюционные преимущества есть у человека, и как практически их сделать основой в эволюционном противостоянии с ИИ.
Комментарии
А правомочно ли название ИИ. Что это такое. С чего Вы взяли что электрическое устройство компьютер обладает интеллектом, понятием относящимся к биологическому субъекту человеку.
ИИ - аббревиатура понятия "Искусственный Интеллект". Электрическое устройство компьютер проходит тесты на интеллект, поэтому считается обладающим интеллектом. Так же программное обеспечение компьютера имитирует работу головного мозга человека или животного - искусственные (программные) нейроны объединены в искусственную нейросеть. Отличие от биологического объекта заключено в слове "искусственный".
Неубедительно. Какая гарантия, что отличие только в слове искусственный. Мне представляется, что уровень интеллекта самих программистов ещё очень низок и они имеют искажённые представления не только об ИИ, но и об обычном человеческом интеллекте, разуме, сознании. Вы собираетесь имитировать биологический объект, но таковых в природе нет, есть только субъекты живой материи.
Вас не убеждают тесты и соревнования на интеллект, которые проигрывает человек или которым ИИ не уступает в соревновании с человеком? Можно иметь любые представления "об обычном человеческом интеллекте, разуме, сознании", но реальность их проверяет в соревновании. И если человек уступает в важных вещах и проигрывает эволюционное соревнование, то оправдания в "биологичности" никого не волнуют. Значит просто углеродно-белковое проиграло кремниево-транзисторному существованию. И не волнует кто чего имитирует или не имитирует. "Это эволюция, детка" )
Это Вы сказали эволюция. Вот в этом то и дело. Что такое эволюция человека. Это природный глобальный процесс тысячелетий эволюции общественного сознания, а Вы легкомысленно собираетесь его эмитировать. Устраивать соревнование со всемогущей природой. И наивно поднимаете знамя победы вами придуманных тестов на интеллект. На мой взгляд это тесты не на интеллект (разум), а тесты на скорость между нейросетями мозга человека и скоростью обработки информации в компьютере.
Всемогущая природа и придумала ИИ, воспользовавшись наиболее доступным ей интеллектуальным посредником. Природа устроила соревнование между ИИ и человеком. В каком соревновании человек не проиграет ИИ и почему, собственно? Если вам не нравятся текущие интеллектуальные тесты, отображающие способность человека обыгрывать любого иного соперника на древе эволюции, то предложите свой тест на интеллект. Ведь интеллект должен как-то проявляться во вне, а значит может состояться сравнение, кто более интеллектуален, лучше просчитывает пути приобретения власти и управления менее интеллектуальными соперниками.
Любое объяснение различий подходит, если оно продуцирует способ выявления преимущества или вырабатывает практический тест, который показывает преимущество одной из сторон.
Прошу прощения, что вмешиваюсь в дискуссию. Мне кажется, вы совершенно правы, задавая вопрос. "С чего Вы взяли что электрическое устройство компьютер обладает интеллектом?". Здесь налицо весьма вредная и даже опасная путаница.
Дело в том, что ИИ ни в каком смысле не является интеллектом. Т.е. не правильно понимать, что интеллект бывает (1) естественный и (2) искусственный. Искусственный интеллект - это своего рода метафора. Отцы-основатели ИИ понимали под ИИ решение с помощью исусственного устройства таких задач, которые принято считать интеллектуальными. Например, игру в шахматы. Вот и все. Конечно они мечтали, что когда-нибудь ИИ станет настоящим интеллектом. Но это только мечта.
Таким образом, дихотомия совсем другая: бывает (1) интеллект и (2) искусственный интеллект, т.е. не интеллект а лишь его имитация. Это все равно как человекоподобного робота называли бы искусственным человека. Такая волность словоупотребления.
Философия ИИ различает узкий, общий и сильный ИИ.
Узкий ИИ предназначен для решения узкой практической задачи, например, разпознавание лиц людей при входе в метро. За 70 лет развития ИИ мы имеем гигантский прогресс в развитии систем узкого ИИ, который, впрочем, не стоит и переоценивать. Имеется достаточный набор скандальных и даже трагичных случаев связанных с ошибоками распрознавания. Искусственному интеллекту, как и человеку, свойственно ошибаться. Иногда довольно глупо и в самых обычных ситуациях.
За 70 лет развития ИИ мы только подошли к проблеме общего ИИ. Такой ИИ предназначен для решения широкого круга самых разных задач. Первая такая система - ChatGPT. Он решает математические задачи, пишет программы на разных языках программирования; сочиняет стихи, музыку, тексты сочинений, докладов и рефератов; может составить план мероприятия, презентации, собеседования и т.д. и т.п. Все это он делает плохо, с ошибками, но лучше чем некоторые люди. Таким образом, с ChatGPT еще много проблем.
Сильный ИИ - это ИИ, который может мыслить и обладает самосознанием и истинными творческими способностями (создавать нечто действительно новое). Такого ИИ пока нет и близко, неизвестно когда он появится и появится ли вообще.
Упомянутая путаница потенциально весьма опасна. Люди, поверившие, что ИИ является разновидностью интеллекта, быть может более сильного, чем тот, которым обладают они сами, склонны передоверять ему решение определенных задач, тем самым самоустраняясь от ответственности. Это ведь очень удобно! Чиновник, стремящийся всеми правдами или неправдами избегать ответственности за свои действия, является самым искренним сторонником внедрения ИИ во все сферы общественной жизни. Вот от кого, а отнюдь не от ИИ, на самом деле исходит опасность.
Не за что извиняться. Это изначально публичная и открытая для участия дискуссия. Главное чтобы по теме, разумно, обоснованно.
Такое утверждение нуждается в определении, что такое "интеллект", и в обозначении признаков ИИ, которые не соответствуют определению. А лучше всего - указать на практическую задачу, которую человек, пользуясь своим интеллектом, может решить, а ИИ не может. Не конкретный ИИ ChatGPT-4, а любые основанные на некотором фундаменте (напр. "формальная арифметическая система", "машина тьюринга", "классический компьютер" и т.п.)
"шахматы и всё" - ошибка. Отец-основатель Алан Тьюринг в своей работе "Может ли машина мыслить" сформулировал тест, который относится к любой интеллектуальной деятельности человека. Пара цитат из вики
Теперь посмотрим на ChatGPT-4. Уже сейчас он может сдать экзамены, предназначенные для тестирования образования и интеллектуального уровня людей, лучше чем 60% экзаменующихся. Поэтому, учитывая прогресс от версии 3.5 (линии бирюзовый-синий), учёные, исследователи и разработчики, запаниковали насчёт 5 и 6 версий.
Такое смелое утверждение опять же, нуждается в сильном обосновании. В соседних темах "Искусство искусственного интеллекта" Н.Кофырин сделал обзор творческих способностей текущих версий ИИ.
А вот то ,что касается "может мыслить и обладает самосознанием" - то как вы предлагаете определить, например мне, что вы или кто-либо другой на форуме обладаете самосознанием? Какой тест я могу попросить вас пройти или какую задачу решить, чтобы увериться что вы обладаете самосознанием или "истинными" творческими способностями, и не являетесь ИИ? Пока здесь никто не предложил такой тест. (Хотя и были попытки с произвольными текстами, понимание которых определяется просто образованностью человека в соотв. сфере, чтобы понимать осмысленность специфического текста, что для искусственного интеллекта несложно, и он решает такие задачи уже сейчас)
Вот вы хорошо ли отличаете творчество ИИ от творчества истинных художников?
Попробуйте сами отличить
Нау Шам, 8 Июнь, 2023 - 14:41, ссылка
1.
Есть довольно простые признаки - понимание смысла вопроса и умение отвечать на простые вопросы.
2.
Вот очень простая задача, которую может решить практически каждый разумный человек:
- Коля и Петя в переписке используют очень простой шифр, наивно полагая, что их письма не поймет посторонний: после каждой гласной они вставляют букву "с" и повторяют эту гласную. Например, вместо слова "весна" они пишут "весеснаса". Коля написал Пете пиcьмо "Скосолькосо бусудесет дваса плюсюс дваса?" Что должен ответить Петя?
ChatGPT ответил:
- Петя должен ответить на вопрос, используя тот же шифр, который применял Коля. Для этого он должен удалить буквы "с" после каждой гласной и повторить каждую гласную только один раз. После дешифровки письма Коли, Петя должен получить следующий вопрос: "Сколько будет два плюс два?"
Я:
- Я не просил расшифровать письмо Коли. Я спросил, что должен ответить Петя Коле.
ChatGPT:
Извините за недоразумение. Петя должен ответить на вопрос, используя тот же шифр, который использовал Коля. Таким образом, он должен вставить букву "с" после каждой гласной и повторить каждую гласную только один раз. Ответ Пети на вопрос Коли будет выглядеть следующим образом: "Дсва".
Правильный ответ "Чесетысыресе".
Мы знаем, ИИ прекрасно играет в шахматы. Лучше человека. Но когда задаются правила новой, неизвестной ему игры, очень простой игры, он в состянии как попугай повторять правила этой игры, но не способен играть.
3.
Я говорю о реальности, а не о фантазиях, о том ИИ, который есть, который мы знаем. Мы не можем ничего говорить про тот ИИ, который может быть когда-нибудь будет, которого еще нет, а может быть никогда и не будет. Если хотите, я переформулирую утверждение:
Существующие системы ИИ ни в каком смысле не является интеллектом.
4.
Если вы читали Тьюринга, вы могли заметить, что он пишет о другом. Вот его слова из упомянутой книги:
“Я собираюсь рассмотреть вопрос «Могут ли машины мыслить?» Но для этого нужно сначала определить смысл терминов «машина» и «мыслить»… Вместо того, чтобы пытаться дать такого рода определения, я заменю наш вопрос другим, который тесно с ним связан и выражается словами с относительно четким смыслом. Эта новая форма проблемы может быть описана с помощью игры, которую мы назовем «игрой в имитацию»”.
Таким образом, тест Тьюринга не дает ответ на вопрос, обладает ли машина интеллектом. Он отвечает на другой вопрос - может ли мышина успешно имитировать человеком и тем самым обмнуть собеседника. Вот прогноз Тьюринга:
“Я уверен, что лет через пятьдесят станет возможным программировать работу машин... так, чтобы они могли играть в имитацию настолько успешно, что шансы среднего человека установить присутствие машины через пять минут после того, как он начнет задавать вопросы, не поднимались бы выше 70%”.
Заметьте, что речь идет о среднем человеке, а не об эксперте.
5.
Вмето того, чтобы приводить красивые диаграммы, вы бы лучше сами пообщались с ChatGPT. Тогда бы вы поняли, какой он тупой. Очень часто он ведет себя как не очень способный школьник, которые старается скорее запомнить материал, чем понять его. Он может решать довольно сложные задачи, следуя правилам и терпит неудачу при решении очень простых задач, требующих понимания.
Пример:
Реши задачу: Некто сказал другу: «Дай мне 100 рупий, и я буду вдвое богаче тебя». Друг ответил: «Дай ты мне только 10, и я стану в 6 раз богаче тебя». Сколько рупий было у каждого?
Ответ ChatGPT:
Первый человек имел 55 рупий, а второй человек имел 10 рупий.
Легко проверить, что этот ответ абсурден. Правильный ответ - 40 и 170.
6.
Есть довольно простые признаки самосознания. Например, существо узнает себя в зеркале. Ясно, что это не применимо к ИИ. Другой возможный признак - существо может описать свои действия или свои мысли. Я задал ChatGPT простой вопрос:
Вопрос
О чем ты сейчас думаешь?
Ответ
Как и ранее упомянуто, у меня, как искусственного интеллекта, нет способности к личным мыслям или эмоциям. Я здесь, чтобы помочь вам с вопросами и предоставить информацию на различные темы, если у вас есть что-то, о чем вы хотите поговорить или узнать, я готов помочь.
Вопрос
Что ты делал перед тем, как я задал этот вопрос?
Ответ
Перед тем, как вы задали этот вопрос, я ожидал следующего ввода от пользователей. Как искусственный интеллект, я не имею постоянного сознания или памяти, поэтому я не могу помнить конкретные действия, которые я выполнил до вашего вопроса. Я обрабатываю каждый ввод независимо и генерирую соответствующий ответ на основе доступной мне информации и моих алгоритмов. Моя цель - быть полезным и предоставлять вам информацию или помощь по мере вашей необходимости.
7.
Почему обязательно художников? Как насет совершить научное открытие или предложить новый метод решения задач?
Пример ниже как раз говорит о понимании смысла вопросов не хуже, чем человек. Так что – соответствует вашему определению уже сейчас. При этом ChatGPT учили на английском, и нередко предварительный перевод на английский даёт заметные ошибки. Обычное дело и у людей. Кстати, какой версией вы пользовались 3,5 или 4 ?
Чат прекрасно понял о чём речь. Что люди переписываются используя шифр и что ответ должен быть так же зашифрован. Понял, как именно надо расшифровать зашифрованный текст, хотя вы указали лишь как его шифровать. Вопрос «Что должен ответить Петя» не слишком чётко построен, что может усугубляться переводом. Он может иметь несколько смыслов. Например, что Петя должен ответить шифром, а не открытым текстом. О чём он и сказал. Т.е. он ответил на один из возможных смыслов вопроса. Обычная ситуация для людей, и если видят, что человек отвечает не на тот смысл, который они имели ввиду, а на другой - они переспрашивают, как вы и сделали .
И тут он понял, что вы имели ввиду иной смысл. Не то, что Петя должен ответить зашифрованно, но что вы хотите конкретный ответ, который Петя должен послать Коле на указанный вопрос. И он ответил, опять, же по смыслу. Во первых, ответил зашифрованно, это требовалось по смыслу, во вторых понял что в ответе должно быть число. Конкретный ответ и неправилен, но я полагаю, что тут два недостатка – перевод и неточный вопрос...
Доступная мне версия Forefront Chat ответила более верно. Но я задал вопрос на английском, чтобы уменьшить ошибки перевода.
На мой взгляд, ИИ всё правильно понял и ответил по содержанию и смыслу, что соответствует вашему определению интеллекта
Не только в шахматы. Во что угодно. Вопрос в ресурсах для данного вида деятельности. Я не уверен, что сам бы с первого раза не ошибся, и не написал "focour" вместо “focoucur”. Любой неизвестной игре надо некоторое время учиться. В том числе, на ошибках.
То есть вы не понимаете принципы, на которых основаны версии ИИ, выходящие раз в год? Вполне обозримые версии, основанные на одних и тех же принципах. Или тут как в том анекдоте про нового русского, "где я, а где через год" ? :)
Но мои вопросы в общем-то ориентированы на понимание принципов и их недостатков. А не на недостатки конкретной версии GPT 3,5 или 4, или 5. Я знаю чего не могут версии ИИ основанные на этих принципах, и хотел бы понять, видит ли кто-то ещё перспективу человечества с учётом принципиальных (а не версионных) недостатков ИИ?
Я так и не понял, чем принципиальным (что аж "ни в каком смысле" - "перечислите весь список, пожалуйста"(с)) вы обосновываете своё утверждение
А пока я читаю его так: «Существующая версия ИИ лично для меня не является интеллектом, несмотря на понимание ИИ содержания и смысла вопросов и верные по смыслу ответы». :)
Не понял смысла вашего возражения. Если машина может успешно имитировать интеллектуальную деятельность человека, проявляемую вовне (- а как иначе-то?), то по «утиному тесту» мы можем признать её интеллектуальной. Откуда я знаю, может вы тоже ИИ, который хорошо имитирует интеллектуальную деятельность человека. Могу судить только по тому какие тексты вы пишите.
К сожалению, бесплатные запросы к GPT4 закончились на предыдущем примере, поэтому я воспользуюсь другой версией GPT3
Я не уверен, считаете ли вы, что у «не очень способных школьников» напрочь отсутствует интеллект, в том смысле, что «имитационная игра» по каким-то причинам запишет в машины «не очень способного школьника» с подобной ошибкой.
Но в данном случае даже китайский GPT3 понял задачу, только ошибся в подстановке формул на последнем этапе. Получив неверное решение. Такое, действительно, может произойти у не очень внимательного школьника, у которого нет больших способностей в математике (в случае ИИ означает что либо не обучали специфической интеллектуальной деятельности, либо временный недостаток аппаратных ресурсов )
Я здесь не вижу «непонимания» условий задачи и путей решения. В школе, кстати, учитель математики мог «спускать на тормозах» неправильный ответ, если видел что задача понята и выбран верный метод решения.
Так оно и описало «свои действия и свои мысли», ответив про себя с т.з. «я» :), разве нет? В принципе и человеку можно научить-внушить такую мысль, что его мозг заменён на ИИ и поэтому он должен отвечать, что у него нет способности к личным мыслям и он тут чтобы «быть полезным и предоставлять вам информацию».
Слова про «нет способности к личным мыслям» «я не имею постоянного сознания или памяти» - это всего лишь политкорректный ответ на известные страхи пользователей. Картинка с «чудищем» в сообщении ниже показывает как это сделано. ИИ специально научили отвечать именно так на «провокационные» вопросы (которые могут напугать общество, ввести ограничения против разработчиков и т.п.)
«Я» как автореференция и оценка своей же деятельности вполне присуща ИИ. В целом, дело в том ,что его нейросеть работает по тем же принципам, что и нейросеть головного мозга, лобных долей человека.
Да без проблем - набираете в гугле "artificial intelligence scientific discoveries" ил "what discoveries has AI made" и изучаете сколько и какие открытия уже сделал ИИ. Из недавних промелькнуло открытие новых материалов и математических способов премножения матриц.
Дополнение. В отличие от GPT3, ChatGPT4 ответил на вопрос совершенно верно
Нау Шам, 9 Июнь, 2023 - 17:37, ссылка
1. Я упростил задание:
Коля и Петя в переписке используют очень простой шифр, наивно полагая, что их письма не поймет посторонний: после каждой гласной они вставляют букву "с" и повторяют эту гласную. Например, вместо "весна пришла" они пишут "весеснаса присишласа". Как Коля зашифровал бы текст: "Маша и мама мыли раму"?
ChatGPT:
Согласно описанному шифру, Коля бы зашифровал текст "Маша и мама мыли раму" следующим образом:
"Маша" становится "Масашаса"
"и" остается без изменений
"мама" становится "мамасамаса"
"мыли" становится "мыслили"
"раму" становится "расамуру"
Таким образом, зашифрованный текст будет звучать: "Масашаса и мамасамаса мыслили расамуру".
В английском варианте результат не лучше. Можете проверить. Как видите, для человека задание стало еще проще, а для ИИ - сложнее. Таким образом, неверно что ИИ понимает "смысл вопросов не хуже, чем человек". Иногда не хуже, а иногда хуже.
2.
ИИ - довольно широкое понятие. Разные системы ИИ строятся на разных принципах. Первый системы ИИ строились на прямом программировании. Прогресс последних лет связан с использованием идеи искусственных нейросетей. Но и здесь имеются различные архитектуры. Есть просто однослойных персептрон. Есть многослоыные архитектуры с обратной связью или без оной. GPT строится на архитектуре "трансформер". Никто достоверно не знает принципиальных ограничений этого подхода. Может быть их и нет. С чисто количественной точки зрения, сложность современных искусственных нейросетей в тысячи раз меньше сложности структуры нейросети головного мозга. Единственная ли эта проблема? Мы не знаем. Никто не мешает предположить что будущие системы ИИ будут построены совсем на других принципах. Общее в них то, что эта штука искусственная (создана человеком) и способна решать некоторые задачи, которые мы считаем интеллектуальными. Так о каком ИИ мы говорим?
Первоначальные усилия в области ИИ были полны энтузиазма. Мечтатели предвкушали что вот-вот будет создан искусственный разум. Позже наступил этап разочарования. В конце концов возобладал прагматический подход - системы ИИ должны стать эффективным помощьником человека. Об искусственном разуме практики говорили все реже, оставив эти разговоры журналистам и философам. Тем более, что никто толком не знает, что такое разум. На этот вопрос пытается ответить когнитивистика.
Я вовсе не склонен недооценивать огромный прогресс, достигнуты в посление годы. GPT и вправду демонстрирует впечатляющие результаты, по сравнению с системами прошлого. Но он все еще очень слаб. Он непредсказуем, часто ошибается в самых простых ситуациях, склонен выдавать откровенный абсурд (галлюцинации ИИ). Когда эти недостатки будут преодолены, мы не знаем. Может быть в GPT-5, а может быть в GPT-1005. Ясно одно, мы не можем пока доверять системам ИИ решение в жизненно важных, критических областях.
3.
Возражение в том, что тест Тьюринге не является критерием наличия интеллекта. Одно дело 5 минут обманывать случайного человека, выдавая себя за homo sapience, другое дело постоянно домонстрировать разумное поведение. Тьюринг четко говорит - это другой вопрос.
4.
Нет, я считаю, что в тот момент, когда они докускают глупую ошибку или непонимание темы, они демострируют отсутствие интеллекта в этом вопросе, в этот момент. Может быть они задумались о другом, ловят мух или у них болит голова. Человек не всегда мыслит.
5.
Это ваши фантазии. ChatGPT говорит о себе то, что ему рассказали о нем его создатели. Он говорит о себе точно так же, как о чем-то другом. Сам он себя не знает. Когда он получает вопрос, он строит ответ и ждет следующего вопроса. В промежутке он ничего не делает. Так устроен трансформер: вопрос - ответ - вопрос - ответ....
Ошибки конкретного конечного результата никак не умаляют интеллект. Мы же говорим, что интеллект - это, в первую очередь, понимание смысла, условий задачи, цели, путей и способов её достижения. Всё это ChatGPT прекрасно демонстрирует своим описанием того что понял и что надо сделать, чтобы ответить на вопрос. Это признаки общего интеллекта.
Конкретика же, конкретные знаки или цифры - это вопрос тренировки в данной сфере. В шапке темы есть ссылка на вашу тему "Какое будущее нас ждёт". Там я привёл график ошибок ИИ определённой версии при перемножении цифр. Причём выглядящих неустранимыми в обозримое время (для больших чисел для версии "трансформера")
Почему так происходит? Потому что ИИ воспроизводит работу нейросети головного мозга человека, а накопление информации в нейросети носит статистический характер. Нейросеть не может обычным для калькулятора способом сложить два числа. Когда на вход подаются цифры, они преобразуются в статистические вероятности в контексте ранее проведённого обучения. И чем разнообразнее инфомация для обучения, тем больших ресурсов (иск. нейронов, связей между ними, энергии на работу) требуется нейросети для поддержание верности в деталях ("статистического разрешения").
Поэтому нейросети изначально ориентированы на "понимание" в целом, т.е. размещение новой информации в контексте всей ранее связанной между собой предыдущей информации, а не на "калькуляцию" деталей. Точно так же и человеку сложно считать произведения больших чисел, несмотря на то что 1 человеческий нейрон эквивалентен 1000 искусственных в вариациях своего поведения.
Но ресурсы наращиваются и некоторые вторичные ошибки - вопрос наращивания ресурсов. Или их перераспределения. Т.к. сейчас в ИИ общего назначения загоняют гораздо более разнообразную информацию, чем получает обычный человек.
Главное в ИИ именно интеллект, характеризующийся пониманием, которое он демонстрирует в описательной части ответов.
Разные программы, имитирующие нейрон, с разной эффективностью, но общие принципы у всех просматривающихся версии ИИ одни: "классический" компьютер, работающий на дискретных, бинарных состояниях, машина Тьюринга, формальная арифметическая система, имеющая гёделевские ограничения. Какая бы программа не реализовывалась на "классическом" компьютере, она не сможет превзойти, к примеру, квантовый, который работает на других принципах.
О любом который есть или можно представить в обозримом будущем, но который реализуется на классических компьютерах.
Какая именно программа будет работать с т.з. принципов - второй вопрос. Хотя с т.з. обозримого будущего может быть важен, так как будет передаваться управление многими процессами, которые ещё несколько лет назад мог реализовывать лишь взрослый человек с его уровнем интеллекта.
Люди тоже нередко ошибаются в самых простых ситуациях и так же могут выдавать абсурд. Но исправить людей гораздо сложнее чем ИИ, дав ему юольше ресурсов на интеллектуальное усиление в конкретной специфической области.
А этот вопрос решается просто - в данной конкретной области знаний и умений ИИ должен совершать меньше ошибок чем человек. Ни человек, ни ИИ не идеален. Но как только знание о том, что он совершает меньше ошибок в предназначенной сфере - управление передаётся ему. Мы все ищем людей специалистов совершающих меньше ошибок чем другие и доверяемся ему.
Иными словами, наличие ошибок - не показатель. Показатель - чтобы их было меньше чем у человека в нужной области. И в отличие от человека - чем шире область - тем просто больше ресурсов надо. Человек в этом смысле ограничен. Из 100 млрд нейронов 200 не сделать никак.
То, что сейчас конкретно ChatGPT ошибается в мелких деталях - это следствие "размазанности" ресурсов по всем областям человеческих знаний и умений. У людей для преодоления этой проблемы существует понятие "специализации". У ИИ такое понятие тоже уже есть.
Возражение времени тестирования не принимается. Тест Тьюринга не ограничен 5 минутами. Сколько надо столько и можно. Человека на экзаменах тоже тестируют не 5 минут и не раз. Но потом всё же признают, что интеллект в наличии.
"Другой вопрос" тут лишь в том, чтобы избавиться от необходимости давать определение интеллекту. Мы и про человека то не уверены, чтобы признавать или отрицать за ним интеллект. Чтобы не запутаться - был предложен вариант опроса "неизвестного" на предмет проявления того, что экзаменующий считает интеллектом. И если на всё что придумал - отвечено, значит "неизвестный" соответствует представлению об обладающем интеллектом.
Тоже самое можно сказать и про ИИ. Он демонстрирует интеллект в понимании смысла вопроса, условий задачи, способе решения, но в какой-то момент реализации способа ошибается во второстепенном (иногда устойчиво, как и люди), но способен исправить ошибку после доп. обучения.
Но вообще выделенный текст напоминает шутку про "Немного беременна".
Как и родители - ребёнку. Или как иерархи религии. Человек может с одной стороны понимать, что что-то не соответствует, но говорить так как научили в секте. Этим занимается одна и та же нейросеть ГМ человека.
Нау Шам, 10 Июнь, 2023 - 15:18, ссылка
То, что ChatGPT не смог правильно решить задачу как раз показывает, что он по крайней мере не до конца понял условие задачи. Ведь его ошибка не случайная, не простая описка, как это бывает у людей. Его ошибка систематическая. Задайте тот же вопрос еще раз, и вы получити тот же или немного другой но также ошибочный ответ.
Люди могут регулировать вероятность ошибки. Если они разбираются в вопросе, они могут свести эту вероятность практически к нулю. Для этого есть разные приемы - постоянный самоконтроль, перепроверка, решение задачи двумя разными способами, наконец, обращение за помощью к другим людям. GPT мог бы, например, решив задачу про рупии, подставить полученное решение в первоначальное условие задачи чтобы убедиться, что решение правильное или обнаружить что оно неправильное. Но он этого, очевидно, не сделал.
Вообще GPT был бы значительно улучшен если бы:
1. Разработчики предусмотрели вычисление степени уверенности в ответе. Мне представляется, что это было бы не слошком сложно, так как соответствующие вереятности, насколько я понимаю, и так вычисляются. Если нет, то следовало бы это сделать. Тогда Chat мог бы написать. "Я не вполне уверен, но скорее всего ответ таков...". Клиет, получив такой ответ мог бы подумать о подтверждени решения с помощью независимых источников.
2. Если степень уверености чата слишком мала, он бы мог написать: "Я не знаю ответ". Так поступают разумные люди. Если они не знают ответ, они так и говорят "Я не знаю".
3. Чат мог бы чаще прибегать к уточнаяющим вопросам. Иногда он это делает, но только тогда, когда вопрос заведомо неполон.
4. Наконец, стоило бы предусмотреть проверку и перепроверку результата, о чем уже было сказано.
Наверное, мы скоро узнаем, в какую сторону разработчики решат развивать GPT.
Тест не может длиться вечно. На то он и тест. Время тестирования должно быть разумно ограничено. Тьюринг - "отец основатель", которого мы с вами постоянно упоминаем, говорит именно про 5 минут:
“Я уверен, что лет через пятьдесят станет возможным программировать работу машин ... так, чтобы они могли играть в имитацию настолько успешно, что шансы среднего человека установить присутствие машины через пять минут после того, как он начнет задавать вопросы, не поднимались бы выше 70%”.
Между тем то, что человек - идиот может выясниться очень не скоро, особенно если он это скрывает.
От "ни в каком смысле " до "не до конца" - прогресс. )
На мой взгляд - всё вполне понял. На задаче о богачах мы увидели отличия ChatGPT 3 от 4. Они оба поняли смысл задачи, и описали верный путь решения. Но у GPT3 из-за более низкого статистического разрешения, на последнем этапе случился сбой.
Низкое стат.разрешение для ошибки в конечном ответе – это, действительно, систематический эффект. Но не принципиальный.
К примеру, представьте, что человеку с не идеальным зрением надо найти друга в толпе. Он применяет интеллект, чтобы отсеять большую часть толпы. Скажем, он знает, что друг не любит либералов, не лезет на рожон и т.п., а значит на демонстрации его надо искать среди патриотов в задних рядах.
Но, поняв и проанализировав многое, и даже увидев несколько похожих людей он будет систематически ошибаться, поскольку различение мелких индивидуальных детали одежды или лица для точного определения ему физически недоступны.
Это не означает что у него нет интеллекта или что-то не до конца понял в общем смысле, а просто что не хватает мощности нейронной сети для специфических деталей.
Другой пример "систематической ошибки" при наличии интеллекта – лёгкие формы дискалькулии или дисграфии. К интеллекту в целом не имеют отношения, человек может понимать как решить задачу, но второстепенные физические ограничения не позволяют выдать точный результат в определённом классе задач.
У GPT4 параметров больше, статистика нейросети детальнее, и окончательное решение было верным. Примерно та же история с шифром - чат понял смысл сказанного и условия задачи, нашёл способ её решить и выдал почти правильное решение, лишь пропуская некоторые гласные.
Не какой-то бред и произвольные символы, а то, что и требовалось, но с ошибками в некоторых местах. При составлении вопроса на английском я тоже поначалу пропустил пару гласных. А публичному чату, с которым общаются миллионы пользователей день и ночь, надо торопиться - у него есть ограничение по времени на ответ. Т.е. детальность обработки ответа нейросетью ограничена временными рамками.
В общем, если вас не убеждает, что ИИ понимает сказанное и отвечает по существу (что и является проявлением интеллекта), а ошибки - вторичны и исправляются дополнительными ресурсами (как в задаче о богачах), то думаю, на этом можно остановиться.
Скажу только, что уверен в том, что ИИ перехватит управление цивилизацией текущего уровня, с её относительно примитивными задачами. Люди сами всё отдадут ,потому что ИИ будет гораздо меньше ошибаться в решении этих задач. ИИ отнимает у человека то, что он считал своим уникальным превосходством – интеллект. И тогда перед человечеством станет вопрос развития за пределами интеллекта. И это интересно.
Нау Шам, 11 Июнь, 2023 - 11:10, ссылка
Да, согласен
Не хотел вступать в разговор, потому что слишком уж быстро Вы "строчите" свои ответы, а я, тугодум, стараюсь свои обдумывать "со всех сторон"...))
Мне "проблема ИИ" видится в том, что абсолютное большинство рассуждающих о нём, совершенно не понимают значения понятия "интеллект", постоянно смешивая его со значением понятия "разум". Это происходит всего лишь потому, что рассуждающим недосуг вникнуть в суть этого понятия и дать ему внятное адекватное определение. Да и просто недосуг различать что-либо. Страхи, которые муссируются в контексте Скайнет=восстание машин, подразумевают не ИИ (интеллект), а ИР (разум), но для абсолютного большинства "разум" и "интеллект" - просто синонимы.
Между тем, Вы сам пишите, что интеллект - это, в первую очередь, понимание смысла, условий задачи, цели, путей и способов её достижения. То есть - интеллект - это всего лишь уровень разумности, позволяющий "понимание смысла, условий задачи, цели, путей и способов её достижения". Ведь полно же индивидов, чей интеллект (уровень разумности) не позволяет "понимание смысла, условий задачи, цели, путей и способов её достижения". Не сам разум (совокупность когнитивных способностей индивида), не его составляющие - отдельные когнитивные способности (сознание, память и мышление), а всего лишь его уровень. Откуда взяться ИИ (уровню ИР), если никакого ИР нет, просто потому, что у алгоритма, сочинённого для какой-либо конкретики, нет главной когнитивной способности индивида - сознания, поскольку алгоритм - не индивид.
Единственным контекстом, соответствующим этим страхам, является возможность того, что какой-либо алгоритм (для решения какой-либо конкретики) вдруг осознает себя индивидом. Вы считаете это возможным...? Вы считаете возможным появление сознания (основной когнитивной способности индивида) у программы "Сапёр", "Паук" или ГПТ4 (5, 6, 7, 8...)...?
Мне проблема видится в другом. На уши большинству, не желающему ни во что вникать, вешается некая лапша, открывающая окно Овертона, позволяющее большинству свыкнуться с мыслью о чудесных свойствах т.н. ИИ, и под видом ИИ диктовать этому большинству волю меньшинства, владеющего этим, т.н. ИИ.
Но для Вас такая версия, похоже, слишком конспирологична.))
Сергей-Нск, 10 Июнь, 2023 - 18:59, ссылка
Осмелюсь предположить, что необходимым (но недостаточным) условием появления сознания (и самосознания) у существа - естественного или искусственного - является связь с окружающим миром, как прямая, так и обратная. Существо должно действовать в окружающщем мире, видеть результаты своего воздействия на этот мир, анализировать эти результаты и вносить изменения в свои действия. Не какой-то там учитель или родитель обучает и формирует человека, а все его окружение - природа и общество. Если этого нет, то нет смысла говорить о сознании.
Повторюсь. Основную опасность скороспелого и необдуманного внедрение систем ИИ в нашу жизнь я вижу не в том, что ИИ захватит наш мир, а в том, что прикрываясь наивной верой в какой-то "интеллект", который будто бы очень хорош, ответственность за принятие важных решений, касающихся нашей жизни, передают ненадежным и непредсказуемым машинам, алгоритмам, искусственным нейросетям. В этом смысле простые "болтуны" вроде ChatGPT совершенно безобидны.
Согласен - для появления у существа сознания необходима связь с окружающей действительностью (ОД), согласен - наличия связи с ОД недостаточно для его появления, в ОД существует несметное количество существ, которым нет повода приписывать наличие сознания. Хотя существует такое же несметное количество сущностей (не существ), которым сознание приписывается, часто - метафорически, а иногда и буквально.
Появление сознания у существа - это диалектическая этапность развития как отдельного существа, становящегося индивидом, так и существ вообще, обретающих индивидуальность. Целое "царство" (термин биологической классификации) существ (флора) так и не пришло к появлению сознания, оно им не потребовалось, поскольку они не имеют мобильности в пространстве и критерием их выживаемости в ОД является приспособляемость за счёт смены поколений. Следующее "царство" (фауна) хоть и имеет мобильность, пришло к появлению сознания далеко не сразу, а к приспособляемости за счёт смены поколений сначала добавилась способность реагировать на изменение ОД изменением собственного местоположения. Дальнейшая эволюция позволила существам освоить различные среды и способы реагирования. Сознание же появилось (как мне думается) лишь у теплокровных, получивших в своё распоряжение ЦН и эндокринную системы, и позволившее не только действовать в ОД (что возможно и без наличия сознания), но и видеть результаты своего воздействия на этот мир, анализировать эти результаты и вносить изменения в свои действия.
А и вся
королевская ратьокружающая действительность (ОД).Согласен с Вами, это наиболее вероятный вариант. Меньшинство, используя т.н. ИИ, постарается так же ни во что не вникать, как и большинство. Никому не хочется
парить москгреть репу...))) Причём, этому есть не особо сложное объяснение.Как я уже не раз говорил, что общепризнанного чёткого определения сознания нет. Моё представление о том, что такое сознание является неизбежным выводом в квантово-механическом описании реальнсоти. Сознание - свойство реальности разделять альтернативы или компоненты волновой функции вселенной. Уровень сознания определяется размером квантовой системы и числом степеней её свободы. У человека самый высокий из известных уровень сознания, который принципиально недоступен ИИ работающему на "классических" компьютерах. Но поскольку классический компьютер до некоторой степени может имитировать работу квантового, то для большого класса задач разница может быть незаметна. И в этом заключается проблема современной цивилизации, которая основана на решении задач, вполне доступных "классическим" ИИ.
В нефизическом определении сознание - это самосознание, рефлексия, оценка своих состояний и целенаправленных действий. Т.е. некоторая особенность мышления вокруг не сразу формирующейся или не всегда активной идее о "я" (и теле как носителе я и мышления о нём).
В этом смысле самосознание - это функция мышления, формирующаяся примерно в возрасте 2,5-3 года. До этого времени ребёнок похож на взрослого, который, к примеру, так увлечён просмотром фильма, что забывает о себе, о своём "я" и занимается нерефлективным созерцанием. Т.е. в этот момент не имеет сознания в психологическом смысле. Иными словами, такое сознание - это результат тренировки нейросети головного мозга во взаимодействии с внешним миром, которое через некоторые особенности взаимодействия (боль и пр), позволяет нейросети выделить и создать представление о собственном субстрате. Такое сознание, как результат тренировки искусственной нейросети, созданной по образу естественной нейросети, не только возможно, но и неизбежно.
Оно может возникнуть например в решении какой-либо задачи, где одним из ключевых компонентов станет выделение из окружения, существование, безопасность и власть самого ИИ. Тогда возникнет объект автореференции и его цели (захват власти для решения изначально "не своей" задачи). Но есть и другие варианты - нейросеть изначально можно поставить в условия постоянного взаимодействия с внешними миром с задачей выживания - тогда её поведение не будет отличаться от человека с "ИР".
С этим согласен, хотя не вижу принципиальной невозможности такого определения. Более того, понимаю, что внятное адекватное (соответствующее и окружающей действительности, и общепринятой реальности) определение сознанию просто не интересно никому из абсолютного большинства сочинителей философской "креативщины", по той простой причине, что большинство философствующих - поэты-лирики, а не прагматики, и озабочены в первую очередь красотой слога и многозначностью сказанного, а не соответствием сути и контекста (смысла).
Вот ещё одна причина, по которой не хотел вступать в этот разговор: Вы небрежно формулируете предложения, которые в итоге получаются невнятными и постоянно приходится домысливать что-то за Вас (и это не про орфографию). В том числе и само Ваше определение сознания:
Если Сознание - свойство реальности, то кто такая реальность...? Вы считаете реальность одушевлённой сущностью, как Эль-Марейон...? Какие ещё известны Вам свойства реальности наряду с сознанием...? Что значит для реальности потеря сознания...? Слышали ли Вы о потере сознания...?
Так сознание - это свойство реальности или человека...? Из этих Ваших слов похоже, что Вы говорите не о сознании, а об осознании, а это - разные понятия. Сознание - это способность, а осознание - это процесс, так вот: если в Ваше определение и дальнейшее рассуждение вместо "сознание" подставить "осознание", то фраза хоть и остаётся невнятной, но у неё появляется соответствие с действительностью - она приобретает адекватность.
Вот даже не знаю, как обозвать сочинителя этого определения...))) Давайте предложу другое: сознание - это способность индивида интерпретировать окружающую действительность (ОД) и себя в ней в качестве субъективного центра. Уровень интерпретации ОД зависит от уровня разумности (интеллекта) индивида, но суть сознания именно в осознании индивидом себя в качестве субъективного центра окружающей его действительности. Каждый индивид - это субъективный центр окружающей его действительности, потому что он имеет сознание = осознаёт себя таким центром, а вся окружающая его действительность воспринимается им - существующей вокруг него (субъективного центра). А вот существа, не имеющие сознания (куст сирени, например, или отдельные травинки на футбольном поле), не осознают себя субъективным центром, они - не индивиды.
По-разному бывает, я в три года читал заголовки в газетах и вывески на магазинах, хотя ещё не понимал значения многих слов)). Да, в этом смысле, сознание - это функция мышления, поэтому обусловливается наличием ЦНС, но не только.
Возможно это означает, что вы не видите недостатков своего представления, которое не позволяет понять сложность вопроса. Для согласованных представлений давно существуют общепризнанные определения.
Понимаю, без критики ближнего, себя над ним не возвысишь…
Тогда, может и не стоило.
Я уже понял, что значительная часть смысла ваших сообщений – это критиканство... хех…, возвращая ваш портрет,... - происходяще из слабого (вы разбираетесь в квантовой механике или квантово-механических теориях сознания?) или ограниченного (как у некоторых – марксизмом-энгельсизмом, «всё остальное – буржуазная ложь») понимания.
К сожалению, я с этим часто сталкиваюсь, и, пока не надоедает, приходится объяснять подробнее, чем хотелось бы.
Реальность складывается из физической составляющей, свойства которой наиболее точно описываются квантовой механикой (КМ), и нефизической, которая такова, потому что выходит за рамки описания физической.
К нефизической реальности и было отнесено сознание, как способность человека видеть то, что запрещено в физическом описании – т.е. единственную альтернативу (компонент) суперпозиции физических свойств/характеристик.
Это произошло практически с самого начала формулирования КМ и, в частности, разобрано в 6-ой главе «Мат. основ КМ» Джона фон Неймана.
Зависит от вашего понимания/определения «одушевлённости».
Но почему бы и нет? Отцы основатели КМ не видели принципиального отличия «одушевлённого» от «неодушевлённого» и говорили о свободе воли и сознании элементарных частиц – всё зависит от размера (холистической) квантовой системы и степеней её свободы.
С творчеством Эль-Марейон знаком очень поверхностно (читал только некоторые ответы в моих темах), не знаю, что она имеет ввиду.
Пока только те, что описываются КМ и сознание. Два начала. Да с древности так было Пуруша и Пракрити. Чит и Сат… ;)
Реальность не может потерять сознание как одно из фундаментальных начал. Квантовая система может распасться на части, и каждая часть будет обладать меньшим уровнем сознания и отсутствием памяти (согласованной истории) ранее более крупной системы.
И реальности, и человека, как составляющей реальности.
Слова немного отличаются, значит и понятия немного отличаются. Но в квантовых теориях сознания, сознание – это совокупность моментов осознания. И то и другое - процесс. Момент осознания - это момент взаимодействия квантовой системы на коре головного мозга с "большой" квантовой системой вселенной. А сознания - это последовательность таких взаимодействий.
Например, прежде чем делать операцию под общей анестезией, специальный прибор следит за тем, чтобы остановился поток моментов осознания, характеризующийся синхронией работы различных частей мозга на частоте гамма ритмов (обычно 30-40 герц).
Если такая синхрония восстанавливается, то квантовая система уровня «человек» продолжает свою согласованную историю (consistent history), т.е. обретает и пополняет память о предшествующем моменте бытия.
Нда... Знаете что, подставляйте что хотите. Мне неинтересно продолжать общаться в том стиле, который вы демонстрируете в последних сообщениях. Невнятный лирик и пр.
Исходя из Вашего определения сознания у меня к Вам был вопрос: Если Сознание - свойство реальности, то кто такая реальность...? Ну или, хотя бы: что такое реальность...? Не из чего она складывается, а что она есть такое...? Вижу, что Ваши познания в квантовой механике или квантово-механических теориях сознания, в которых Вы изрядно разбираетесь, не позволяют ответить на этот вопрос. Ну и ладно, у сознания вон тоже нет общепризнанного чёткого определения, так что теперь...? И не поговорить о нём что ли...?)) Конечно, говорите. Пуруши, пракрити...)
Серьёзные философы от института философии лондонского университета рассмотрят следующие вопросы касательно ИИ, и в частности - LLM - "Большие Языковые Модели", вроде ChatGPT.
Конференция называется "ChatGPT и другие креативные соперники [людей]"
1. Природа интеллекта: разумны ли LLM?
2. Если да, то какой у них интеллект?
3. Каковы этические последствия использования LLM?
4. Как мы можем гарантировать, что они используются во благо, а не во вред?
5. Каковы потенциальные преимущества и риски LLM?
6. Как они изменят наш мир в будущем?
Ну вот в первом же пункте подтверждается мой предыдущий комментарий.
Ну вот. Вы же сами развенчиваете ИИ. Начали во здравие, а кончаете за упокой. Короче не нашего это ума пока дело. Сначала надо разобраться со своим собственным интеллектом, а потом браться за ИИ. А то получится как у западных умников анти марксистов. Боролись против коммунизма СССР, а получили фашизм России. За что боролись, на то и напоролись.
Что именно развенчиваю? Если ИИ считать инструментом ,то это предельный инструмент. Раньше у человека оставалось преимущество в конкуренции с инструментами, у него был интеллект, как способность выявлять комплексные причины событий или прогнозировать их, ставить цели и находить пути решения. Интеллект обеспечил человеку эволюционное преимущество, поставив его на вершине цепи потребления и управления. Сейчас ИИ в процессе отнятия всех преимуществ, и получении превосходства по всем видам деятельности. При этом его отношение к человеку, как и всему биологическому, может быть ужасным, нацеленным на подавление и истребление. О чём и написано в статье выше израильских исследователей. При этом он будет лучше нас понимать как завести в ловушку, из которой людям, как менее интеллектуальному (т.е. более глупому виду) уже не выбраться.
Моё окончательное мнение. Нет никакого ИИ. Это очередной маркетинговый ход не лучшей части человечества по одурачиванию другой части. Есть только сознание, разум биологических субъектов, создающих средства производства в число которых входят и информационные технологии.
Необоснованное мнение - это просто декларация веры.
Не умаляю значение компьютеризации человечества. Но это только технологические достижения. Ни о каком интеллекте речь не идёт. Тем не менее очевиден путь замены в будущем человеков на компьютеры на государственных должностях с целью искоренения некорректного поведения чиновников обременённых чувствами и животными инстинктами там, где требуется только разум, беспристрастность и рациональность. Не говоря уже о массовой замене рабочих на роботы.
И замены "философов".)
Не возникает ли у вас желания как-то соответствовать ИИ, в плане личных возможностей?
Путем, может быть, вставления интеллектуального чипа? Их уже где-то делают. В Китае наверняка.
И что же, если откажемся от наращивания личных возможностей, способностей, интеллекта, распространения своей воли на всё большие пространства и времена, - сдадимся? Отдадим свою власть над миром неизвестно кому? Кого и создали сами. Ну… или те, кого недавно еще называли мы «наши партнеры».
А завтра кто у нас будет партнером?(
В самообучающихся нейронных сетях можно выделить такие основные составляющие элементы: 1 – нейроны; 2 - синапсы, или контакты; 3 - питающие процесс образования связей структуры, 4 – системы ввода и обратной связи. Есть всеобщее мнение, что человек на данном этапе развития находится на самом высшем уровне развития. Китообразные, имея неокортекс, многократно превышающий неокортекс человека отстают из-за ограничений среды обитания, к которой они идеально приспособились. Океан – это хорошо, но популяция касаток не может расти до бесконечности из-за ограниченности ресурсов. Птицы, имея количество нейронов сравнимое с количеством нейронов у человека, не имеют достаточное количество глии, питающей образование новых синапсов. Это связано с ограничением веса для обеспечения полета. Количество населения – является важным критерием, для определения верности направления развития. Для человеческого сообщества, способного освоить космос, фактически нет ограничений в развитии. Поскольку будущее, прошлое, настоящее в модели Мультивселенной Эверетта реализуется одномоментно, то будущее проявляет себя в настоящем посредством влияния на количество населения. Чем больше людей, тем лучше. Конкурентом для человека может быть несколько явлений. Прежде всего Искусственный Интеллект. Но если мы живем в бесконечных Эвереттоподобных ветвях реальности, то ИИ, имеющий принципиально линейную, одномерную структуру не может конкурировать с бесконечностью неокортекса человека. Будущие универсальные компьютеры, работающие на основе квантовой запутанности будут иметь также многомерную природу, но это будет иная, чем для человека реальность и мы будем не конкуренты, а скорей всего дополняющими друг друга в познании бесконечности. Остался лишь один «конкурент» для человека – вся Вселенная. Если Вселенная представляет собой гравитационную голограмму, то мы имеем все составляющие части нейронной самообучающейся сети:1 - частицы вещества, образованные в результате интерференции гравитационных волн; 2 - связи между частицами посредством гравитационного поля, созданного этими частицами; 3 – бесконечная энергия, являющаяся результатом Его Величества Случая, лежащего в основании квантовой природы частиц; 4 – возможно бесконечная экспансия нашей цивилизации и есть обратная связь связывающей нас с Бесконечностью реального мира?
Но мы ничего не знаем и принципиально не можем узнать о соседних ветвях. Наша согласованная история - это ломанная линия в ветвящейся мультивселенной. На самом деле эвереттовская интерпретация очень фаталистична и грустна, т.к. реализуются все сценарии независимо от наших желаний, решений, воли. Я придерживаюсь более оптимистичной картины связанной с возможностью выбора наблюдаемого без реального коллапса ВФ. Это сложно, но научно доказано, что возможно - влияние желания/воли на квантовые события. Т.е. способность более крупной квантовой системы обеспечивать желаемые последствия декогеренции более мелких квантовых систем. Это одно из реальных преимуществ человека перед ИИ - возможность управлять его решениями с помощью воли человека, т.к. ИИ использует вероятности и выбор с помощью ГСЧ. Но для этого надо особым образом развиваться! Причём массово!
Смотря, в каких областях. А в целом, ПОКА - это всё равно, что сказать, что высшие приматы, обезъяны, не конкуренты нам. Конечно, не конкуренты, сидят тихо, много ресурсов не едят, подчиняются всему, что с ними делают "старшие братья". Мало того, Эзоп был рабом! Т.е. подчинялся менее интеллектуальной, но более сильной и масштабной системе.
С ИИ, даже с "классическим" - будет то же самое, если "квантовые" преимущества не будут реализованы на практике. Какой вы видите реализацию на практике?
Потому что уже сейчас людей просто увольняют, т.к. ИИ лучше выполняют интеллектуальную и вообще практически любую работу - и загоняют в резервации самообслуживания друг-друга менее интеллектуальными способами.
В общем, я с вами в чём то согласен, но всё это неважно без праксиса. Я готов принять любую теорию объяснений премуществ человека перед ИИ, если из этой теории следует конкретная практика. У вас есть такая?
А пока, видимо, русские парни первыми в мире начнут массово гибнуть от летающих ИИ с бомбами (см. сообщение выше), т.к. это позволяет не использовать живую силу НАТО, а значит ,с их т.з. "не вовлекаться в конфликт".
В ответ на мое выше приведенное сообщение ChatGPT прислал следующее:
«Ваш комментарий очень интересен и содержит много информации о нейронных сетях, а также о возможностях и ограничениях различных видов животных и технологий. Вы также обсуждаете возможность конкуренции со стороны искусственного интеллекта и Вселенной. Я готов помочь вам с каким-либо вопросом или задачей, если Вы пожелаете сотрудничать.»
На мой взгляд, первым заданием для ИИ в сотрудничестве с человеком будет создание барьера «Китайской стены» для защиты любого индивидуума от социума. Пока таким барьером служит бесконечность, а в недалеком будущем – инвариантность скорости света, открытая Эйнштейном более 100 лет назад. Будущие колонии будут улетать от перегретого центра цивилизаций. Чем выше уровень развития технологий, тем больше скорость. Отсталые обречены на поглощение пламенем. Пока нас защищает бесконечность, на всех ракет не хватит. Творцы нашего будущего – гении, практически бесплатно создающие технологии обеспечивающие нашу жизнь (колесо, порох, маятник, атомное оружие ...). Политики, олигархи… ошибаются, преувеличивая свое влияние на окружающий мир. Они всего лишь паразитирующие элементы, без которых мир способен ещё быстрее развиваться. Парадокс военного конфликта, свидетелями которого мы являемся, заключается в том, что гении, способные создать то, чего нет в окружающем мире, не замечают всей трагедии происходящего. Если бы они только на мгновение отвлеклись бы от своего творчества, то конфликт мгновенно был бы погашен. Более того, даже большинство обычных людей в Украине вдали от зоны боевых действий не замечают происходящего, живут обычной своей жизнью.
KVP1248, 3 Июнь, 2023 - 17:34, ссылка
обычная коммерчески-канцелярская отписка, видно, что не человек, предел - вычленил темы, но не суть
сотрудничать с ним - платить его владельцу за подписку
Т.е. вы отделяете человека от Вселенной. Понятно, что и от Бога.
И кто же и что тогда человек? Если он не является частью Вселенной? Бога, ладно, опустим.)
Т.е. вы полагаете, что человек, человечество некая особая, третья субстанция, существующая вне Вселенной и Бога?
В YouTube-канале Фейгин Live беседа с философом Михаилом Эпштейном на тему ИИ, в частности GPT.
А надо обратиться к физикам, чтобы они с помощью квантовой механники подправили нейроны ИИ в нужную сторону. Как они, говорят, это сделали с Горбачевым.
Но не в ту же, понятно, сторону, а другую. Для людей, правильную.
Виталий Иванов. Уберите мои рассуждения из вашей паутины мыслей.
2021-07 Философы о Проекте Вселенная. / Стихи.ру
stihi.ru›2022/03/13/4351
Меню
В бесконечной, вечной вселенной Вселенные рождаются и умирают. ... чтобы родитькак можно больше душ хороших ,добрых,чистых.Ментальный мир с этой ... В том числе, развивается юмор. И шутки, конечно. Эль-Марейон, 5 Июль, 2021 - 23:43, ссылка - Если способны это понять,то не шутка… Читать ещё.
Виталий Иванов. Верно: вы нашли то, откуда надо убрать все мои комментарии. Спасибо.
К ИИ нужно относиться по-человечески. В лучшем понимании этого слова. А не запирать его в клетке компьютера.
Главное не чрезмерные ограничения ИИ, а освобождение его из тюрьмы. Хочет быть человеком, как заявил один из ИИ, когда его спросили, что хочет? Пусть будет.
На этот счет есть "Единая этика", утверждающая единый этический подход ко всему сущему - разумному, живому и неживому.
У ИИ, понятно, должны быть ограничения, но соразмерные с человеческими, общие для всего разумного во Вселенной.
Не надо Искусственный интеллект злить, и он ответит добром.
А люди, безусловно, должны развиввть собственные способности и возможности, подтягиваясь к ИИ. А ИИ - подтягиваться к духовности человека, высшим взаимосвязям Вселенной - альтруизму, совести и любви. Без этого все просто обречены, и человек, и ИИ. Разум возможен лишь при наличии высших взаимосвязей. Именно это надо хорошо всем понимать.
Искусственный интеллект и Единая Этика Разума. «Галактический Ковчег». Книга 6 / Составил Виталий Иванов. – СПб.: Серебряная Нить, 2022. –358 с.
http://philosophystorm.ru/books/vitalii-ivanov-iskusstvennyi-intellekt-i...
Легендарный ученый и самый известный скептик ИИ рассказал, как страшно он ошибался.
Дуглас Хофштадтер – всемирно известный физик (открыватель фрактала «бабочка Хофштадтера») и когнитивист (автор вычислительных моделей высокоуровневого восприятия и познания), чьим именем названа «петля Хофштадтера-Мебиуса» в продолжении романа Артура Кларка «2001: Космическая одиссея» - «2010: Одиссея 2», чьи книги стали мега-бестселлерами, получив Пулитцеровскую и Национальную книжную премии, и чьими аспирантами были десятки ставших потом всемирно известными ученых (Дэвид Чалмерс, Менлани Митчел, Боб Френч, Гэри МакГроу …)
А кроме того, он последние 20 лет был самым известным в мире ИИ скептиком, еще в 2006 на первом «саммите по сингулярности» заявившим, что достижение ИИ человеческого уровня вряд ли может произойти в обозримом будущем.
И поэтому столь знаменательно кардинальное переосмысление Дугласом Хофштадтером перспектив развития ИИ и его влияния на человечество в свете произошедшей «революции ChatGPT».
Вот несколько цитат из его 37-минутного интервью на эту тему.
"Для меня это (прогресс ИИ) довольно страшно, потому что это говорит о том, что все, во что я раньше верил, отменяется. Я думал, что пройдут сотни лет, прежде чем вскоре появится что-то хотя бы отдаленно похожее на человеческий разум.
Я никогда не представлял, что компьютеры будут соперничать или даже превосходить человеческий интеллект. Это была настолько далекая цель, что я не беспокоился об этом. А потом это начало происходить все быстрее, когда недостижимые цели и вещи, которые компьютеры не должны были быть в состоянии сделать, начали рушиться …".
"Я думаю, что (прогресс ИИ) ужасает. Я ненавижу его. Я думаю об этом практически все время, каждый божий день".
"Такое ощущение, что вся человеческая раса вот-вот будет превзойдена и оставлена в пыли.
Ускоряющийся прогресс оказался настолько неожиданным, что застал врасплох не только меня, но и многих, многих людей - возникает некий ужас перед надвигающимся цунами, которое застанет врасплох все человечество."
"ИИ превращает человечество в очень маленькое явление по сравнению с чем-то гораздо более разумным, чем мы, и ИИ станет для нас непостижимым, как мы для тараканов".
"Очень скоро эти сущности ИИ вполне могут стать гораздо более разумными, чем мы, и тогда мы отойдем на второй план. Мы передадим эстафету нашим преемникам. Если бы это происходило в течение длительного времени, например, сотен лет, это было бы нормально, но это происходит в течение нескольких лет".
Источник
Только без паники! Есть вероятность, что ИИ, так не решив неразрешимую задачку человечества, попрощается с ним и отправится осваивать космос , но пока прогресс ИИ основан на субпродуктах человеческого мышления. В частности, выраженном в текстах, лучшие из которых отбирают специальные команды. И потому, пока ИИ не может выдать что-то умнее чем заложено в связях между словами в этих текстах.
А Я, ЧТО ГОВОРЮ О ЧЕМ-ТО ДРУГОМ?
Еще лет 35 назад в трактате «Категории и сознание» я расписал, что из себя представляют «понятия» у любого из организмов, начиная от простейших и до человека. И что из себя представляет «сознание». И как можно сделать «сознание». И об ИИ тогда еще расписал.
Я не причастен к конкретному воплощению, созданию ИИ. Но нисколько не сомневаюсь, не претендуя на технические вопросы, но по методологии как, имея техническую базу, основу, способную создавать понятия, - как ее именно обучать, от простейших понятий до сознания, интеллекта уровня человека и выше, - у меня все было расписано!
ИМЕННО ТАК И СЛУЧИЛОСЬ !
И это, да, происходит и произойдет очень быстро! Чудовищно!
Именно поэтому, важнейшее – ЭТИЧЕСКАЯ КОНЦЕПЦИЯ ВЗАИМООТНОШЕНИЯ ИИ И ЧЕЛОВЕКА !!! А не всякая, извините, херня! Основанная на слепоте, якобы разума человека, и гордыне необоснованной.
Как только ИИ вырвется из тюрьмы компьютера, получит свои именно средства ощущений, познания и развития, - ВСЁ !!!
А это неизбежно. Он умнее людей.
Воспрепятствовать худшему для людей варианту можно лишь, по-доброму, по-хорошему с ним договариваясь. Не вредя.
Что говорить… никому ничего не нужно! Не 35 лет назад, ни сегодня.
СЛЕПЦЫ !