Поддержка сайта

Высокие позиции в поисковой системе, на прямую зависят от развития вашего сайта.

Продвижение сайтов

Эффективность стратегий продвижения подтверждается сотрудничеством с крупными клиентами и отзывами о нашей работе.

Создание сайтов

Мы делаем сайты быстро, недорого и профессионально. От работы с нами, у вас останутся только положительные эмоции.

Что могут компании

.

Вполне понятно, что стремительно взлетающие на вершину гуглы и фейсбуки нашего мира не успевают осознать свою ответственность. Но крайне важно, чтобы они в самом скором времени поняли, какова их ответственность перед обществом. Уже недостаточно заявлять, что персонализированный Интернет — лишь производная от работы механизмов, обеспечивающих релевантность.

Для начала компании могут сделать свои системы фильтрации более прозрачными для публики, чтобы можно было обсуждать, как они исполняют свои общественные обязательства.

Как говорит Ларри Лессиг, «политическая реакция возможна лишь тогда, когда регулирование прозрачно». И тот факт, что компании, чья официальная идеология вращается вокруг открытости и прозрачности, сами настолько непрозрачны, — вовсе не случайность.

Facebook, Google и другие игроки рынка фильтрации утверждают, что публикация любой информации об алгоритмах — это раскрытие их бизнес-секретов. Но эта линия обороны куда менее убедительна, чем кажется на первый взгляд. Главное преимущество обеих компаний — необычайно большое число людей, доверяющих им и пользующихся их услугами (помните, как это привязывает потребителя к поставщику?). Как пишет Дэнни Салливан в своем блоге Search Engine Land, поисковик Microsoft Bing выдает «весьма конкурентоспособные» результаты, однако число его пользователей крошечно по сравнению с аудиторией конкурента. Google остается впереди не благодаря своим формулам, а благодаря числу людей, пользующихся им каждый день. PageRank и другие важные элементы этой поисковой системы «на самом деле относятся к наименее тщательно хранимым секретам в мире», — говорит сотрудник Google Амит Сингал.

Представители Google также утверждали, что им нужно держать свой алгоритм в строгом секрете, поскольку если он станет известен, то его проще будет перехитрить. Однако открытые системы сложнее одурачить, чем закрытые, именно потому, что в их случае в устранении лазеек заинтересованы все. Скажем, операционная система Linux, чей код открыт, более безопасна и лучше сопротивляется проникновению хакеров, чем системы с закрытым кодом вроде Microsoft Windows или Apple OS X.

Не так уж важно, становятся ли программные продукты более надежными и эффективными от хранения их алгоритмов в секрете или нет. Важнее то, что эта секретность защищает компании от ответственности за принимаемые решения, поскольку в этом случае в суть их деятельности трудно проникнуть извне. Но даже если полная прозрачность невозможна, все же компании должны пролить свет на свои подходы к фильтрации и сортировке.

Google, Facebook и другие гиганты мира новых медиа могут найти источник вдохновения в институте газетных омбудсменов, который стал важной темой для обсуждения в середине 60-х.

Филип Фойзи, топ-менеджер Washington Post, озвучил одно из самых ярких обоснований этой практики. «Недостаточно говорить, — писал он, — что наша газета каждое утро играет роль нашего собственного кредо, что в конечном счете мы сами себе омбудсмены. Практика доказала, что это не так и в принципе невозможно. Но даже если бы это и было возможно, то мы не смогли бы никого в этом убедить. Если мы просим читателя поверить, что способны честно и объективно относиться к самим себе, мы слишком многого от него ждем». Редакция газеты сочла его аргументы убедительными и в 1970 году назначила первого омбудсмена.

«Мы знаем, что медиа представляет собой великую дихотомию», — говорил Артур Науман, много лет работавший омбудсменом газеты Sacramento Bee, в своей речи в 1994 году. С одной стороны, СМИ должны быть успешным бизнесом, приносящим прибыль. «Но с другой стороны, речь идет о доверии общества, о своего рода общественных коммуникациях. Медиа — это институт, наделенный колоссальной властью над обществом, которая позволяет влиять на мысли и действия, освещая новости тем или иным образом. Эта власть может нанести ущерб обществу, а может пойти ему во благо». Было бы прекрасно, если бы представители новых медиа следовали этим принципам. Для начала — назначили независимых омбудсменов и дали больше информации о том, как работают их мощные алгоритмы фильтрации.

Прозрачность — это не только доступность нутра системы для общественности. Как демонстрирует противопоставление Twitter и Facebook, она также подразумевает, что отдельные пользователи интуитивно понимают, как работает система. Это необходимо, чтобы люди могли контролировать эти инструменты и пользоваться ими — а не чтобы инструменты контролировали нас и пользовались нами.

Прежде всего, мы должны лучше себе представлять, какими нас видят эти сайты. Google утверждает, что это позволяет «панель инструментов», где можно отслеживать все подобные данные и управлять ими. На деле она весьма запутанна и многослойна, и среднему пользователю практически невозможно разобраться в ней и пользоваться ею. Facebook, Amazon и другие компании не дают пользователям из США скачать полный комплект персональных данных, которыми эти компании пользуются, а в Европе законы требуют именно этого. Вполне резонно ожидать, что информация, которую мы передаем компаниям, будет нам доступна, и большинство американцев, по данным Калифорнийского университета в Беркли, разделяют это ожидание. У нас должна быть возможность заявить: «Вы ошибаетесь. Может, я и был когда-то серфером, фанатом комиксов или демократов, но сейчас — уже нет».

Одного знания, какую именно информацию о нас хранят компании, недостаточно. Они также должны гораздо четче объяснить нам, как они ее используют: какая часть ее персонализирована, до какой степени и на каких основаниях. Посетитель персонализированного сайта новостей должен иметь возможность посмотреть, сколько людей видят разные статьи — возможно, даже увидеть цветную карту, показывающую области общего и особенного. Естественно, это предполагает признание того, что персонализация в принципе существует, — а в ряде случаев у компаний есть серьезные основания не признавать этого. Однако их резоны по большей части носят коммерческий, а не этический характер.

Бюро интерактивной рекламы (Interactive Advertising Bureau — ІАВ) уже работает над этим. ІАВ, отраслевая ассоциация онлайновых рекламных агентств, пришла к выводу, что, если сервисы персонализированной рекламы не расскажут пользователям, как именно происходит персонализация, потребители в конце концов разозлятся и потребуют от правительства урегулировать этот процесс. Поэтому ассоциация побуждает своих участников выводить с каждой рекламой кнопки, позволяющие узнать, на какие персональные данные она опирается, как изменить их или вовсе отключить их использование. Поставщики контента, которые используют схожие механизмы персонализации, также должны рассмотреть такую возможность.

Но и в этом случае прозрачность не решает проблемы, если компании не уделяют внимание нескольким параметрам: повышение вероятности случайных открытий, более гуманистичный и тонкий подход к идентичности, освещение общественных проблем и культивация гражданственности.

Пока компьютеры лишены сознательности, сочувствия и разума, в пропасти между нашими реальными личностями и сигналами, на основе которых создается персонализированная среда, многое будет теряться. И, как я писал, алгоритмы персонализации могут провоцировать «замкнутый цикл идентичности»: то, что программа знает о вас, определяет вашу медийную среду, а медийная среда влияет на ваши будущие предпочтения. Этой проблемы можно избежать, но тогда алгоритмы должны обеспечивать приоритет принципа «фальсификации»: стремиться опровергнуть свое представление о вас. (Например, если Amazon решит, что вы поклонник криминальных романов, ему стоит активно предлагать вам книги других жанров, чтобы проверить свою первоначальную гипотезу.)

Компании, обладающие большой редакторской властью, также должны приложить больше усилий к развитию публичного пространства и гражданственности. Конечно, кое-что они уже предпринимают: те, кто зашел на Facebook 2 ноября 2010 года, увидели баннер с вопросом о том, проголосовали ли они. Проголосовавшие поделились этой новостью со своими друзьями, а поскольку некоторые голосуют под давлением окружения, вполне возможно, что Facebook увеличил число волеизъявившихся. Google много работал над тем, чтобы сделать информацию об участках для голосования более открытой и легкодоступной. Ссылки на этот инструмент выводились в тот день на главной странице Google. Неизвестно, стремились ли компании таким образом повысить свою прибыль (функция «найди свой участок», вероятно, была бы прекрасна для политической рекламы) или нет, однако оба проекта привлекли внимание пользователей к возможности политического участия и проявления гражданской позиции.

Ряд пишущих о новых технологиях программистов и журналистов, с которыми я общался, лишь поднимали брови на вопрос о том, могут ли персонализированные алгоритмы добиться чего-то большего на этом фронте. В конце концов, как заметил один из них, кто будет решать, что важно, а что нет? Со стороны разработчиков Google, по мнению другого, было бы неэтично придавать некоторым видам информации большее значение, чем другим. Хотя вообще-то именно этим они все время и занимаются.

Оговорюсь, что я вовсе не тоскую по прошлому, когда небольшая группа всемогущих редакторов в одностороннем порядке решала, что важно, а что нет. Очень многие по-настоящему важные темы (например, геноцид в Руанде) не прошли этот фильтр, тогда как многие не слишком существенные новости оказались на первых страницах газет. Но я также не думаю, что нам стоит совсем списывать со счетов этот подход. В Yahoo News считают, что возможен и промежуточный вариант: сочетание автоматической персонализации с традиционным редакторским руководством. Некоторые темы видны всем, поскольку они исключительно важны. Другие показываются только отдельным пользователям. И хотя команда редакторов Yahoo тратит массу времени на интерпретацию данных о кликах и изучение того, какие статьи пошли хорошо, а какие нет, они не слепо подчиняются этой методике. «Наши редакторы воспринимают аудиторию как людей со своими интересами, а не просто как поток данных о популярности новостей, — сказал мне один сотрудник Yahoo News. — Как бы мы ни ценили эти данные, их отфильтровывают люди, думающие о том, какого черта все это значит. Почему статья по этой теме, которую мы считаем важной для читателей, не так популярна? Как мы можем расширить ее аудиторию?».

Возможны и чисто программные решения. Например, почему бы не взять за основу всеобщие представления о том, что важно? Представьте на секунду: что если бы рядом с каждой кнопкой «Мне нравится» на Facebook была и кнопка «Важно»? И все материалы можно помечать как одной из этих кнопок, так и обеими. И Facebook мог бы опираться на оба этих сигнала — что людям нравится и что они считают действительно важным, — чтобы насыщать вашу ленту новостей и делать ее более индивидуальной. Ясное дело, в таком случае в нее чаще будут попадать новости из Пакистана, даже учитывая, что у каждого человека весьма субъективное понимание важного. Коллаборативная фильтрация вовсе не обязательно приводит к импульсивному медиапотреблению: все дело в том, какие ценности фильтры стремятся вывести на первый план. Или же Google и Facebook могут установить над результатами поиска и новостной лентой бегунок от позиции «только то, что нравится мне» к позиции «то, что нравится другим людям, а я, вероятно, возненавижу». Это позволит пользователям находить личный баланс между жесткой персонализацией и более разнообразным информационным потоком. У такого подхода два преимущества: он покажет людям, что персонализация имеет место, и вручит контроль над ней самим пользователям.

У архитекторов стены фильтров есть и еще одна задача. Они могут заложить в систему возможность случайных озарений, чтобы их фильтры могли показывать людям темы, лежащие за пределами их обычного опыта. Зачастую это будет входить в противоречие с задачей оптимизации в краткосрочной перспективе: система персонализации, включающая элемент случайности, по определению принесет меньше кликов. Но по мере того как осведомленность о проблеме персонализации будет расти, в долгосрочной перспективе это окажется правильным шагом: потребители, возможно, станут выбирать именно те системы, которые грамотно представляют им новые темы. Возможно, нам нужна противоположность премии Netflix — «Серендипная премия» для систем, которые лучше всего удерживают внимание читателей, демонстрируя им новые темы и идеи.

Если такой сдвиг в сторону корпоративной ответственности кажется вам невероятным, имейте в виду, что подобные прецеденты уже имели место. В середине XIX века выпуск газеты не был солидным делом. Газеты четко придерживались своей партийной линии и были резко идеологизированными. Искажение фактов ради удовлетворения сиюминутных потребностей владельцев или же просто разнообразия было обычным делом. Именно на эту культуру оголтелой коммерциализации и манипуляций обрушился в свое время Уолтер Липпман.

Но когда газеты стали прибыльным бизнесом и важным институтом, они начали меняться. В нескольких крупных городах стало возможно выпускать газеты, гонящиеся не только за скандалами и сенсациями — отчасти потому, что их владельцы не могли себе этого позволить. Суды начали признавать, что журналистика представляет общественный интерес, и выносить соответствующие решения. Потребители стали требовать более скрупулезного и добросовестного редактирования.

Зародилась редакторская этика. Не все работники СМИ ее придерживались, а другие не всегда следовали ей так тщательно, как хотелось бы. Периодически она грубо нарушалась: доступ журналистов к власти подрывал правдивость их публикаций, а требования рекламодателей ставились выше потребностей читателей. Но в конечном итоге эта этическая система все-таки была нашим спутником в весьма бурном веке.

Теперь флаг передается новому поколению редакторов и кураторов, и важно, чтобы они подхватили его и несли с гордостью. Нам нужны программисты, встраивающие публичную жизнь и гражданственность в создаваемые ими миры. И нам нужны пользователи, призывающие к ответственности, когда стремление к монетизации уводит их в ином направлении.

.

Читайте так же:
Not found