АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Неутешительный вывод

Читайте также:
  1. II. Выводные протоки потовых желёз
  2. Алгебраический вывод кривой IS.
  3. Алгебраический вывод формулы мультипликатора трансфертов
  4. Анализ результатов и выводы
  5. Анализируя результаты анкетирования можно сделать выводы.
  6. Аналоговый вывод
  7. Б -бусинковый (1-чувствительный элемент; 2-электроды; 3 -выводы; 4 - стеклянная оболочка)
  8. Билет26(можно только выводы в конце учить).
  9. Более широкие выводы
  10. В отличие от почек, которые выводят с мочой из организма преимущественно нейтральные соли, кожа способна выводить сами кислоты.
  11. В процессе вывода знака на экран компьютера производится обратное перекодирование, т. е. преобразование двоичного кода знака в его изображение.
  12. Ввод и вывод информации

Однако нам пора вернуться к обсуждению главного вопроса этой главы. Речь идет о самоприменимости модели. Можно ли процесс самоприменимости формализовать и описать, скажем, каким-либо алгоритмом? Это существенный вопрос, так как в случае положительного ответа на него можно было бы рассчитывать на быстрый прогресс в изучении рефлектирующих структур. Но, увы... Обычно, когда алгоритм работы модели известен и известно входное слово, то можно сказать, каково будет выходное слово. В случае самоприменимости есть запись алгоритма, точнее, известно входное слово, эквивалентное этой записи, но доказано, что не существует алгоритма, который позволил бы сказать, каково выходное слово. Таким образом, нет алгоритма, который описал бы самоприменимость: можно только постфактум констатировать - есть она в данной модели или ее нет. Иными словами, проблема самоприменимости машины Тьюринга (любой ее разновидности) алгоритмически неразрешима.

Понятие алгоритмическая неразрешимость следует обсудить более подробно. Прежде всего, не нужно думать, что коль скоро его относят к некоторой проблеме, то оно ложится на нее как вечное клеймо, относя ее к разряду непознаваемых. Алгоритмическая неразрешимость не имеет ничего общего с агностицизмом. Однако подобное клеймо сразу же относит проблему к разряду наиболее трудно разрешимых, хотя разрешимость, познаваемость явления, связанного с такой проблемой, не отрицается. Просто, существенно затрудняются, а если быть более точными - принципиально становятся невозможными формализованные пути решения. Чтобы пояснить высказанный тезис, сошлемся на один пример, довольно часто приводимый в литературе. Речь идет о знаменитой проблеме Ферма, история которой чрезвычайно интересна и поучительна, однако наш путь проходит мимо ее истории.

Всякий, имеющий среднее образование, поймет, что ниже написано алгебраическое уравнение

в котором, x,y,z - неизвестные переменные, при этом считается, что переменная n принимает любые целочисленные значения 1,2,3 и т.д. Проблема Ферма заключается в следующем: требуется найти алгоритм, который позволял бы определять целочисленные значения x,y,z для любых целых n. При n=1 задача решается легко: для любых целых x,y значение z равно их сумме. Когда n=2, некоторые значения x,y,z можно найти методом подбора, например, x=3, y=4, z=5 или x=6, y=8, z=10. Доказано, что при n=3 уравнение не имеет целочисленных корней отличных от нуля, но это доказательство несправедливо для других значений n.

На сегодняшний день автор располагает информацией, что проблема Ферма якобы алгоритмически неразрешима (приходится писать якобы, так как абсолютно достоверной информации мы, к сожалению, не имеем). Это означает, что нет смысла искать единый алгоритм решения, годный для всех целых n, не нужно тратить на это силы и время, хотя для некоторых конкретных n метод решения когда-нибудь будет найден, или будет доказано, что целочисленных решений нет, как это случилось для n=3.

Что касается самоприменимости машины Тьюринга, то с помощью не очень сложного, хотя довольно тонкого доказательства удалось сформулировать утверждение: проблема самоприменимости машины Тьюринга алгоритмически неразрешима. Это означает, что нельзя формальными методами (на основе анализа таблицы машины) про любую машину сказать, будет ли она самоприменима или нет. В то же время ответ на вопрос получить можно, построив машину и проверив, какое свойство имеет место. Значит, глядя на собственное описание машины, мы не можем сказать, в какое слово она его преобразует. Хотя, если машину построить и она окажется самоприменимой, интересующее нас выходное слово определить очень просто: для этого достаточно машину запустить и посмотреть на ее выход.

То, что проблема самоприменимости машины Тьюринга алгоритмически неразрешима, огорчительно. Однако нас, пусть это не покажется странным, данное обстоятельство радует. Будь все иначе, проблемы сознания, сущности я человека, наверное, оказались бы давно решенными. Коль скоро этого не произошло, можно предполагать, что мы на правильном пути.

Самоприменимость универсальной машины Тьюринга моделирует то общее, что по нашим предположениям лежит в основе появления субъективного начала. Но мы не можем сказать, какой должна быть структура управляющего устройства универсальной тьюринговой модели, чтобы она была самоприменима. Мы можем попытаться найти какую-то структуру, которая будет самоприменима, возможно, сможем найти несколько таких структур, но мы никогда не сможем сказать, как их находить.

Данное заключение, казалось бы, должно привести нас к пессимистическому вывожу о невозможности решения проблемы сознания - проблемы я. Однако фактически не все безнадежно. Известно, что на практике все реакции мозга протекают в ограниченный и, как правило, достаточно малый отрезок времени. Поэтому, говоря о тьюринговой модели работы мозга применительно к проблеме сознания, правильнее ставить вопрос не о самоприменимости модели, а о так называемой ограниченной самоприменимости (в теории алгоритмов f -самоприменимость [38,с.158]). В отличие от проблемы самоприменимости проблемы ограниченной самоприменимости не существует. Иными словами, если имеется описание таблицы универсальной машины Тьюринга, то по этому описанию в принципе можно вычислить некоторую функцию, имеющую размерность времени (пока, конечно, доказана только теоретическая возможность ее вычисления).

Если модель перерабатывает свое описание за время, не превышающее вычисленное, и выдает определенный, заранее оговоренный результат, то такая модель обладает свойством ограниченной самоприменимости. Так как допустимое время различных реакций мозга известно, и существует принципиальная возможность пересчета этого времени во временные масштабы работы модели, то имеется реальная возможность, во-первых, классифицировать модели по признаку: ограниченно самоприменима - несамоприменима; во-вторых, проводить анализ тех структурных свойств модели, которые приводят к появлению свойства ограниченной самоприменимости.

Но вот другой неутешительный (а возможно, как раз, приятный) вывод, следующий из того, что процесс самоприменимости (пока мы не научимся записывать и вычислять ограничивающую f -функцию) не может быть описан никаким алгоритмом. Так как мы предположили, что процесс самоприменимости универсальной машины Тьюринга является моделью одного из звеньев сознания, то на основании всего сказанного следует совершенно четко заявить: часть процесса работы мозга, связанная с появлением сознания, - не алгоритмический процесс, и, следовательно, для него в принципе не существует формального описания. Поэтому, рассматривая самые разные стороны деятельности человеческого мозга, можно сказать, существенно уточняя написанное ранее, что, хотя мозг работает в целом алгоритмически, одна его функция - реализация способности к возникновению субъективного начала - не алгоритмична. Именно по этой причине не существует формализованного пути к созданию субъективного начала в искусственных системах, хотя неформальные или частично формальные пути, конечно, остаются.


1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61 | 62 | 63 | 64 | 65 | 66 |

Поиск по сайту:



Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.003 сек.)