Поддержка сайта

Высокие позиции в поисковой системе, на прямую зависят от развития вашего сайта.

Продвижение сайтов

Эффективность стратегий продвижения подтверждается сотрудничеством с крупными клиентами и отзывами о нашей работе.

Создание сайтов

Мы делаем сайты быстро, недорого и профессионально. От работы с нами, у вас останутся только положительные эмоции.

Конец теории

.

В декабре 2010 года исследователи из Гарварда, Google, «Британской энциклопедии» и «Словаря американского наследия» (American Heritage Dictionary) объявили о результатах совместного проекта продолжительностью в четыре года. Команда проекта составила базу данных, охватывающую все содержание книг более чем за пять столетий. В общей сложности в нее вошли 5,2 миллиона книг на английском, французском, китайском, немецком и других языках. Теперь любой, кто зайдет на страницу Google N-Gram, может ввести запрос и посмотреть, как те или иные слова и фразы набирают и теряют популярность с течением времени: от появления их в роли неологизмов до затухания и забвения. По мнению исследователей, этот инструмент дает и еще более грандиозные возможности — «количественный подход к гуманитарным наукам», позволяющий по-научному картировать и измерять культурные изменения.

Уже первые находки показывают, насколько мощным может оказаться этот инструмент. Изучая отсылки к прошлым датам, исследователи обнаружили, что «с каждым годом человечество быстрее забывает свое прошлое». Также они утверждали, что их разработка может стать «мощным инструментом для выявления цензуры и пропаганды» — благодаря выделению стран и языков, в которых наблюдается статистически ненормальное отсутствие определенных идей или фраз. Например, упоминания о Льве Троцком гораздо реже появляются в книгах на русском языке середины XX века, чем в английских или французских публикациях того же периода.

Несомненно, этот проект — колоссальное подспорье и исследователям, и просто любопытной публике. Однако едва ли единственным мотивом участия Google в нем была помощь науке. Помните слова Ларри Пейджа о том, что он хотел создать машину, «способную понять все», которую некоторые назвали бы искусственным интеллектом? Информация — ключевой элемент подхода Google к созданию интеллекта, и в пяти миллионах оцифрованных книг ее просто безумное количество. Чтобы вырастить настоящий искусственный интеллект, его нужно хорошо кормить.

Чтобы понять, как может работать этот механизм, рассмотрим сервис Google Translate, который сейчас обеспечивает сносный автоматический перевод почти с 60 языков. Если вы думаете, что он создан на основе очень большой и весьма изощренной подборки словарей, то ошибаетесь. Инженеры Google решили опереться на вероятностный подход: они разработали программу, которая определяет, какие слова чаще появляются рядом с другими, а потом обработали огромные массивы доступных данных на разных языках, чтобы натренировать программу на них. Одним из самых крупных массивов были базы заявок на патенты и торговые знаки. В этом качестве они весьма уместны, поскольку во всех заявках говорится примерно одно и то же, они находятся в открытом доступе и их зачастую нужно подавать одновременно на разных языках. Translate «напустили» на сотню тысяч патентных заявок на английском и французском, и программа смогла установить, что когда в английской версии документа появляется слово word, то во французской версии с высокой вероятностью — слово mot. И по мере того как пользователи поправляют Translate, она переводит все лучше и лучше.

То, что Translate делает с иностранными языками, Google намеревается проделать практически со всем остальным. Соучредитель компании Сергей Брин выразил интерес к проработке генетических данных. Сервис Google Voice накапливает миллионы минут записей человеческой речи, которые инженеры надеются использовать при создании нового поколения программ для распознавания речи. Сервис Google Research собрал большую часть научных статей. И, естественно, пользователи вливают в него миллиарды поисковых запросов каждый день; это еще одна богатая жила культурной информации. Если бы у вас был секретный план-высосать данные всей цивилизации и создать с их помощью искусственный интеллект, — лучшего и пожелать нельзя.

Становясь все более изощренным, протомозг Google откроет новые, совершенно замечательные возможности. Ученые из Индонезии смогут сразу пользоваться новейшими докладами из Стэнфорда (и наоборот), не дожидаясь, пока их кто-то переведет. Не исключено, что через несколько лет мы сможем говорить с носителем другого языка с автоматическим переводом; это откроет новые каналы межкультурной коммуникации и понимания.

Но чем «интеллектуальнее» окажутся эти системы, тем труднее будет их контролировать и понимать. Не совсем верно утверждение, будто они живут своей собственной жизнью, — все-таки это программы. Но они достигают такого уровня сложности, при котором даже программисты не могут в полной мере объяснить выдаваемый результат.

Это уже касается и поискового алгоритма Google. Даже для его создателей его работа оказывается в некотором роде таинственной. «Если бы они и раскрыли правила работы механизма, — говорит эксперт по поиску Дэнни Салливан, — вы бы все равно ничего не поняли. Даже если Google назовет все 200 сигналов, которые использует, и раскроет весь код, вы не поймете, что с ним делать». Главный поисковый механизм Google — это сотни тысяч строк программного кода. По словам одного сотрудника Google, который общался с разработчиками поисковой системы, «команда подправляет и настраивает код; они на самом деле не знают, что именно работает и почему, они просто смотрят на результат».

Google обещает не перегибать палку в пользу своих продуктов. Но чем сложнее и «умнее» становится система, тем сложнее понять, так ли это. Указать, где именно возникают предубеждения и ошибки в человеческом мозге, трудно или даже невозможно: слишком много там нейронов и связей, чтобы свести все к одному дающему сбой узлу или кусочку ткани. В интеллектуальной системе вроде Google эта непрозрачность может создать реальные проблемы — как до сих пор не получившее объяснения техническое «падение» бирж 6 мая 2010 года, вызвавшее обрушение индекса Доу-Джонса на 1000 пунктов за несколько минут.

В одной своей провокационной статье главный редактор Wired Крис Андерсон утверждал, что большие базы данных сводят на нет потребность в научных теориях. Зачем тратить время на формулировку гипотез на человеческом языке, если можно быстро проанализировать триллионы битов данных, выделить кластеры и установить все корреляции? Он цитирует директора по исследованиям Google Питера Норвига: «Все модели ошибаются, и все чаще вы можете добиться успеха и без них». Много чего можно сказать в оправдание этого подхода, но стоит помнить и о его оборотной стороне: если машины и могут увидеть результат, не имея моделей, то люди ничего не смогут без них понять. В попытках сделать управляющие нашей жизнью процессы понятными для людей есть ценность.

Изобретатель суперкомпьютеров Дэнни Хиллис как-то сказал, что величайшее достижение человеческой технологии — это инструменты, позволяющие нам создать больше, чем мы понимаем. Верно, но это же и причина наших самых страшных бедствий. Чем больше программы, управляющие персонализацией, похожи на сложный процесс человеческого познания, тем тяжелее понять, почему или как они принимают свои решения. Простые правила, закрывающие доступ к чему-то людям определенной группы или класса, нетрудно обнаружить, но, когда то же самое действие оказывается результатом бурлящей массы корреляций в глобальном суперкомпьютере, все становится куда хитрее. А в итоге сложно призвать эти системы и обслуживающие их компании к ответственности за их действия.

.

Читайте так же:
Not found