В аналитической философии существует установка, которая обычно не проговаривается явно: то, что имеет значение, может быть выражено в языке. Границы мышления и языка совпадают. Эту аксиому дисктирует Серл в книге Expression and Meaning, а началось все, естественно, с мистических озарений Витгенштейна. Политический смысл этой установки кажется мне важным и правильным, поскольку она подразумевает, что вы всегда можете договориться с другими людьми или по крайней мере понять их при условии, что обе стороны постараются выражаться максимально ясно. Если же между вами остается непонимание - идите и переформулируйте. Думаю, что это недооцененная сторона аналитической традиции, в которой видны какие-то чуть ли не спинозистские корни. Но сейчас не об этом. За пределами методологической программы философов-аналитиков все обстоит, судя по всему, несколько сложнее. Современная нейрофизиология и лингвистика на экспериментальном уровне фиксирует разрыв между мышлением и языком. Возможно, существует знание, которое не выражается или даже не может быть выражено в языке - по крайней мере, за приемлемый срок времени. В то же время оно остается знанием в том отношении, что, опираясь на него, субъект в состоянии быть компетентным, и принимать корректные решения. В сущности, если усомниться в общезначимости лингвистического поворота как интеллектуального приема, понятно, что никаких причин считать язык идеальным контейнером знания не существует. Эта дискуссия, как и многие другие, например, о природе разума или об этике, сейчас обостряется и приобретает, с одной стороны инженерный, а с другой социальный характер - из-за искусственного интеллекта. Появляются машинные «субъекты», принимающие эффективные решения в реальном мире, и при этом не использующие естественного языка, принципиально не умеющие объяснить, почему они поступили так и или иначе. Для того, чтобы увидеть проблему, необязательно даже постулировать реальный мир: достаточно взять программу AlphaGo, которая играет в свою игру сильнее любого человека, но не в состоянии рассказать об этом историю, и действия которой принципиально непонятны человеческим аналитикам. Увеличение числа экспертных систем-машин, действующих в мире, неизбежно приведет к напряженности вокруг этой проблемы. Если машины будут управлять экономикой или образованием, люди будут обоснованно требовать, чтобы им объясняли, почему машина предлагает то или иное решение. Нечеловеческий характер мышления машин без языка будет и уже вызывает тревогу у людей. И тогда критическим навыком экспертных систем с ИИ окажется именно умение давать отчеты о своих действиях, рассказывать нам истории. Отвечать на вопрос: "почему вы предлагаете это решение"? Отсюда два важных вывода. Во-первых, развитие специализированных систем ИИ с неизбежностью сталкиваются с необходимостью ставить вопрос об универсальном ИИ, владеющим естественным языком и проходящим при необходимости тест Тьюринга (хотя акцент тут несколько смещается - "неотличимость" от человеческой речи не так важно). Во-вторых, разработка разумных в человеческом смысле машин в этом контексте имеет вполне прикладную, нетеоретическую причину, и в нее будут инвестировать технологии и деньги. Машины будут действовать рядом с людьми, а это означает, что им придется понимать друг друга и объяснять друг другу свои действия, используя единственный пригодный для человека способ - язык. Интересно, что сейчас существуют научные группы, которые явно ставят перед собой эту задачу: научить компьютер комментировать свои действия. Это, впрочем, еще не конец истории. На следующем шаге мы, кажется, приходим к выводу, что язык становится ограничением для роста ИИ. Задача понимать решения в человеческом смысле слова ограничивают их эффективность. Последствия этого тезиса, кажется, понравятся не всем.