Показать сообщение отдельно
  #282  
Старый 28.08.2014, 13:08
Ковбоец Ковбоец вне форума
участник
 
Регистрация: 16.08.2012
Адрес: Санкт-Петербург
Сообщений: 1,645
Ковбоец на пути к лучшему
По умолчанию Ответ: Альтернативная наука, эгрегоры, образы, экстрасенсы и прочее

Владимир Мартиросов видимо не хочет поделиться своими умозаключениями с нами, ладно, жаль. А было бы интересно обсудить.

Вот как я вижу ситуацию.
Сразу хочу сказать, что солидарен с Сергеем Саалем. Научное общество оккупировано кучкой олигархов, отсюда все проблемы.
Посмотрите его выступления.
Вот очень хорошая статья
Русофобия Нобелевского комитета
Вот книга рекомендованная Фурсовым "Даниэль Эстулин - Тавистокский институт"

С чего начать. Вопервых скажу что частично согласен с Владимиром Мартиросовым в том что интеллектуальные системы будут и дальше развиваться. Будут развиваться и системы взаимодействия человек компьютер.
А вот про зарождение инскусственного интеллекта, вот тут я думаю происходит следующее (что я скажу это собственно мнение Сааля)
Задумаемся. Допустим ИИ создан. Что произойдет с ГП если каждый будет получать ответы на почти любой заданный вопрос?
Правильно ГП исчезнет как реальность! Следовательно эта сфера полностью захвачена и общественное сознание уводится в любом направлении но только не в сторону его зарождения! Думаю это элементарный и простой вывод!
Но некоторые подвижки все же есть. Я уже говорил, что контора IBM уже успешно моделировала мозг крысы и кошки (судя по новостям, лично не присутствовал при симуляциях) и приступила к человеческому.
Так же в книге "Даниэль Эстулин - Тавистокский институт", проходит мысль что элита стремится перевести свое сознание в цивфровое и тем самым она обретет бессмертие, а так же в других аспектах она получит полный контроль над рабами - над нами.
По ссылке Презентация мы видим упоминание проекта Россия 2045.
Думаю вы уже догадались какие выводы я хочу сделать

Подумаем над Пенроузом и презинтацией.
Я вообще почему спрашивал про мнение Владимира Мартиросова, может он знает текст презентации, сложно судить по картинкам без текста.

Первое что бросилось в глаза это оценка количества нейронов в нашем мозгу. Я помню цифру 10^26 нейронов из советсткой литературы. Тут же вычисляют что это только скорость вычислений. Ну ладно, это все равно субъективная оценка.

Второе. Выдвигается предположение, что в нашем мозгу играют роль квантовые процессы.
Считаю что это полнейший бред. Черепа людей неоднократно вскрывали, должно было быть свечение, где эти кванты? Давно уже понятно, что вся активность происходит за счет протекания электрических зарядов по нейронам и синапсам.
Если вы прочитаете статью "Русофобия Нобелевского комитета" то поймете откуда такие бредни берутся. (Конечно оставляю вероятность что я не прав, но пока убедительных аргументов я просто не вижу)

Сами формулировки типа "Как только мощность компьютеров превысит
(мощность мозга, мощность всего человечества)
то возникновение сильного ИИ будет обеспечено." лишены смысла.
Из той же статьи можно предположить аналогию что мы создали суперкомпьютер, например 10 петафлоп (Росатом уже готовится к тому чтобы установить такой у себя) но без ПО он ничего не вычислит!

Следовательно ПО играет огромную роль.

Цитата:
nogo
теорема Пенроуза об ИИ
Доказательство от противного:
Предположим, построен компьютер, который
реализует все способы математических
рассуждений, которыми владеют люди.
Тогда, по теореме ГёделяТьюринга,
для
данного компьютера мы (люди) можем
построить утверждение, истинность которого
нам ясна, но компьютер не сможет его доказать.
Тем самым, компьютеру доступны не все
способы математических рассуждений,
доступные людям.
Предположив, что все, получили, что не все.
Противоречие доказывает, что такой
компьютер конечный
автомат не может
существовать.
Усиленная форма теоремы:
Математические способности всех людей можно
заменить на способности «математика».
С какого перепуга мы решили, что мы можем построить такое утверждение?
Так же как и это:
Цитата:
Следствие:
Мозг человека не является
конечным автоматом
Доказательство от противного:
Предположим, что мозг некоторого
«математика» является конечным
автоматом. Тогда, по теореме
Пенроуза, этот конечный автомат
не может понять некоторых вещей,
которые может понять математик.
Следовательно, математик может
понять то, что он понять не может.
Привотиворечие доказывает, что
мозг математика не является
конечным автоматом.
Нейрон является конечным автоматом. Это ясно из его строения.
И мозг в целом является конечным втоматом это можно понять из уравнений персептронов.
Разница в том, что этот конечный автомат способен меняться. Этого в статье нет!

Цитата:
Почему мозг не компьютер?
Машины обрабатывают информацию,
а человек работает со смыслами.
Вовсе не очевидно, что человеческие
смыслы могут быть закодированы
информацией.
Мысль — не вычисление
А смысл это не информация?
Правильно мысль не вычисление, это результат вычисления!
В общем данная презентация навевает у не особо сведущих читателей мысли о "высоком", "великом". И далеком от реального положения дел.
В интернете пишут что Пенроуз не получил нобелевку только потому, что нобель в свое время просто не установил премию по математике.
Оно и понятно. Попробуйте в математике запудрить мозги. Ничего не выйдет это точная наука!

Цитата:
Caenorhabditis elegans нематода 1 мм
Нервная система взрослой особи — гермафродита состоит из 302 нейронов
Проблема мощности компьютера полностью отсутствует!
Ну так оно и понятно. Сааль об этом и говорит. Нам просто тупо запрещен перечень областей знаний! Поэтому и подвижек нет.

Владимир Мартиросов, не воспринимайте меня и мою писанину как нечто авторитетное. Такие стереотипы, если они у вас есть, мешают доходить до истины. Если вы выскажитесь резко против, то идиотом вас никто не назовет.

Поделюсь некоторыми умозаключениями и технологиями с вами. Если вам это конечно интересно.

1) я уже писал это на форуме, еще раз повторю.
Рассмотрим персептрон Розенблата. Это модель части мозга. Каждый слой персептрона, представляет собой в математической записи гиперплоскость. Ах+By+Cz+..+Nm=0.
Отсюда легко понять его работу. Он просто значение с входа классифицирует относительно этих гиперплоскостей. В самом простом случае относительно одной гиперплоскости. Если выход всего один, то это как раз решение уравнений плоскости. В случае нескольких выходов, это решение под плоскостей (частей из целой гиперплоскости). Приставка гипер показывает только лишь то что это необязательно 2D или 3D плоскость, это ND плоскость. Где N любое целое, положительное число.
Отсюда несложно понять, что некоторые части нашего мозга это ничто иное как классификатор основанный на гипер плоскостях. Подпространства (объемы) которые они образуют есть наши конкретные знания. Так мы классифицируем что хорошо а что плохо и прочее.
В реальности дело обстоит немного сложнее.
Синапсы нейронов в персептроне связаны только с последующим слоем. А в реальном мозгу они связаны произвольно. необязательно по виду плоскости, а с любым нейроном с которым нужно.
Как это понять? В геометрическом смысле это просто будут не плоскости а более сложные поверхности со сложной взаимосвязью. Но суть остается той же. Это просто классификатор. Когда мы запоминаем новое знание, просто становится больше подпространств (гиперобъемов) образованных этими гипер поверхностями.

Механизм же как и что выбирает с каким нейроном связаться это тайна за семью печатями. Возможно это где то известно но нам это знать не положено!

Есть протез этого механизма. Вы не найдете его реализацию ни в одном пакете по нейронным сетям. По крайней мере я этого сделать не смог. Видел только очень редкие упоминания.
Суть. все тот же генетический алгоритм для обучения (он просто ищет экстремумы на поверхности целевой функции). Все та же обучающая выборка как и в классическом варианте, но! Обучение идет несколько иначе.
Нейроны не выделены изначально и нет синапсов вообще!
В начале выделяется столько нейронов, сколько выходов, и столько синапсов сколько нужно входов.
Получается классический персептрон. Это нужно только для того чтобы количество входов и выходов создать столько сколько нужно.
Далее можно прогнать этот персептрон и обучить его максимально. Полностью он не обучится конечно.
И теперь самое интересное.
Выделяем дополнительный нейрон и начинаем пробовать связывать его с этим персептроном, до тех пор пока мы не решим что он "лег в него" с максимальным уменьшением ошибки сети. В начале даже можно пробовать только один вход (синапс) создать у этого нейрона, далее обучить, далее попробовать добавлять еще синапсы.
В общем суть в динамическом добавлении синапсов и нейронов.
Такая модель сложнее, но нет ограничений, сеть сама эволюционирует.

Более того, можно взять уже обученную сеть. И не меняя ее, добавить входы, выходы и дообучить ее решать новую задачу. При этом сеть расширится, эволюционирует. (Сеть обученная для решения старой задачи должна остаться неизменной. Для этого необходим отдельный алгоритм дообучения.) Можно не добавлять входы выходы, но дообучить, например новым способам поведения.

Посмотрите как учатся животные? Через статистику. Повторяя. Возможно какой то элемент мозга запоминает воздействия и отклики на них, далее он накапливает статистику и потом переводит это в память (если это часто повторяется) далее создаются рефлексы, программы в голове.

Ну если рассматривать животных. То входы это все органы принимающие информацию, выходы это удовлетворение потребностей. То есть происходит автоматизация причинно следственных связей приводящих к удовлетворению потребностей тем самым продолжается жизнь организма.

Я дал не полное решение, но думаю это значительный шаг вперед. Полного решения я не знаю.

Кто желает это реализовать в код, могу помочь.
Ответить с цитированием