У науки нет никаких определённостей, но это нормально, что так происходит.

Уверенность в научных знаниях имеет своеобразную динамику: она укрепляется медленно, но рушится каждый раз, когда предсказание не оправдывается или объяснение кажется противоречивым. Сегодня сама концепция научного доказательства кажется несколько ослабленной, повисшей в воздухе между перепроизводством данных и коллективной неспособностью интерпретировать их критически. «Мы переживаем переходный период, когда вопрос заключается в том, является ли искусственный интеллект простым инструментом или чем-то, что переопределяет сами границы знания», — объясняет Адам Кучарски, профессор Лондонской школы гигиены и тропической медицины и автор таких текстов, как «Доказательство: неопределенная наука определенности» (Profile Books) и «Le regole del contagio» (Marsilio).
Особенно после крупных кризисов в области здравоохранения последних лет, от Эболы до COVID-19, неопределенность больше не воспринимается как естественное состояние науки, а скорее как ее внутреннее ограничение. И это непонимание затрудняет принятие вероятностной природы большей части научных знаний. «Мы более подвержены неопределенности и случайности, чем когда-либо прежде, и наша способность объяснить, почему происходят определенные вещи, похоже, уменьшилась», — отмечает Кухарски. «Неопределенность — это не только недостаток, но и двигатель науки. Но когда дело доходит до принятия государственных решений, особенно в чрезвычайных ситуациях, это превращается в политическую проблему».
В английском языке мы говорим о слабых доказательствах , состоянии, при котором у человека есть только частичные и неубедительные подсказки при принятии срочного решения: в таких ситуациях, как пандемия или судебный процесс, ожидание окончательных доказательств может означать неспособность действовать вовремя. Зачастую невозможно ждать, пока у нас появятся веские доказательства, поэтому нам необходимо принимать решения на основе имеющейся у нас информации, взвешивая риски и принимая погрешность как важнейший компонент процесса принятия решений. «Даже когда существует определенная уверенность в проблеме и инструментах, все равно могут быть разногласия относительно принимаемых мер политики. «По этой причине полезно подходить к неопределенности, рассматривая ее как многоуровневый процесс, осознавая, что достижение единой и непреложной истины часто является утопией», — продолжает Кухарски. Эта сложность становится еще более очевидной в долгосрочных процессах, таких как изменение климата: несмотря на очень широкий научный консенсус относительно серьезности явления, политика остается раздробленной, и мы действуем разрозненно, не из-за отсутствия данных, а из-за расхождений в интересах, ценностях и политических линиях.
Понятие неопределенности может выйти за рамки науки, приобретя культурное измерение. «На протяжении истории то, что считалось очевидным, радикально менялось», — поясняет он. «Европа, например, долгое время отвергала отрицательные числа, поскольку они были несовместимы с греческой геометрией, тогда как в Азии они были приняты, поскольку были связаны с практикой долга». Этот релятивизм сейчас усугубляется растущим использованием искусственного интеллекта: алгоритмы, способные предсказывать эволюцию белка или писать тексты на естественном языке, бросают вызов классической идее о том, что каждое решение должно быть подкреплено понятным объяснением. «Бывают ситуации, когда ИИ работает лучше, если мы не слишком беспокоимся о том, как он достигает своих результатов», — отмечает Кучарски. «Существует аналогия с тем, что происходит при анестезии: мы знаем, что комбинация препаратов вызывает потерю сознания, но мы не знаем точного биохимического механизма».
Тогда проблема становится эпистемологической: можем ли мы доверять доказательству, сгенерированному алгоритмом, если мы не можем его проверить? Сегодня ИИ не просто оказывает поддержку, но и генерирует контент, принимает оперативные решения и прогнозирует сценарии. Зачастую это происходит непостижимым для нашего интеллекта образом, не делая прозрачным путь, ведущий к результату. «В некоторых случаях генеративные алгоритмы становятся самоуспокоенными, то есть они ищут ответ, который мы хотим услышать, не обязательно самый правильный», — отмечает Кухарски. «Риск двоякий: с одной стороны, технический, так как надежность трудно оценить; с другой стороны, концептуально, поскольку мы привыкаем принимать решения как должное и отказываемся от управления процессом принятия решений». ИИ может стать поворотным моментом в истории знания: не просто инструментом, а новым культурным субъектом.
ilsole24ore