Поисковая оптимизация

редактировать

Практика увеличения видимости в Интернете на страницах результатов поисковых систем

Поисковая оптимизация (SEO ) - это процесс повышения качества и количества трафика веб-сайта на веб-сайт или веб-страницу из поисковых систем. SEO нацелен на неоплаченный трафик (известный как "естественный" или "обычный " результат), а не на прямой трафик или платный трафик. Неоплаченный трафик может происходить из различных видов поиска, включая поиск изображений, поиск видео, академический поиск, поиск новостей и отраслевой вертикальный поиск. двигатели.

В качестве стратегии интернет-маркетинга SEO учитывает, как работают поисковые системы, запрограммированные компьютером алгоритмы, которые определяют поведение поисковой системы, что люди ищут, фактический поиск термины или ключевые слова, введенные поисковыми системами, и какие поисковые системы предпочитает их целевая аудитория. SEO выполняется, потому что веб-сайт будет получать больше посетителей из поисковой системы, когда веб-сайты занимают более высокое место на странице результатов поисковой системы (SERP). Эти посетители потенциально могут быть преобразованы в клиентов.

Содержание

  • 1 История
    • 1.1 Отношения с Google
  • 2 Методы
    • 2.1 Получение индексации
    • 2.2 Предотвращение сканирования
    • 2.3 Повышение узнаваемости
    • 2.4 Белая шляпа против методов черной шляпы
  • 3 Как маркетинговая стратегия
  • 4 Международные рынки
  • 5 Юридические прецеденты
  • 6 См. Также
  • 7 Примечания
  • 8 Внешние ссылки

История

Веб-мастера и поставщики контента начали оптимизировать веб-сайты для поисковых систем в середине 1990-х годов, когда первые поисковые системы каталогизировали ранний Интернет. Первоначально всем веб-мастерам нужно было только отправить адрес страницы или URL в различные системы, которые отправили бы веб-сканер для сканирования этой страницы, извлечения ссылок на другие страницы из он и возвращает информацию, найденную на странице для проиндексирования. В этом процессе паук поисковой системы загружает страницу и сохраняет ее на собственном сервере поисковой системы. Вторая программа, известная как indexer, извлекает информацию о странице, такую ​​как слова, которые она содержит, где они расположены, любой вес для определенных слов, а также все ссылки, содержащиеся на странице. Вся эта информация затем помещается в планировщик для последующего сканирования.

Владельцы веб-сайтов осознали ценность высокого рейтинга и видимости в результатах поисковых систем, создавая возможность как для белой шляпы, так и черной шляпы Специалисты по SEO. По мнению отраслевого аналитика Дэнни Салливана, фраза «поисковая оптимизация», вероятно, вошла в употребление в 1997 году. Салливан считает Брюса Клея одним из первых, кто популяризировал этот термин. 2 мая 2007 года Джейсон Гамберт попытался зарегистрировать термин SEO, убедив Управление по товарным знакам в Аризоне, что SEO - это «процесс», включающий манипулирование ключевыми словами, а не «маркетинговая услуга».

Ранние версии поисковых алгоритмов полагались на предоставленную веб-мастером информацию, такую ​​как ключевое слово метатег или индексные файлы в таких системах, как ALIWEB. Мета-теги предоставляют руководство по содержанию каждой страницы. Однако использование метаданных для индексации страниц оказалось менее чем надежным, поскольку выбор веб-мастером ключевых слов в метатеге потенциально может быть неточным представлением фактического содержания сайта. Неточные, неполные и непоследовательные данные в метатегах могли и действительно приводили к ранжированию страниц по нерелевантным поисковым запросам. Поставщики веб-контента также манипулировали некоторыми атрибутами в источнике HTML страницы, пытаясь занять высокие позиции в поисковых системах. К 1997 году разработчики поисковых систем осознали, что веб-мастера прилагали усилия, чтобы получить высокий рейтинг в своей поисковой системе, и что некоторые веб-мастера даже манипулировали своим рейтингом в результатах поиска, наполняя страницы чрезмерным или нерелевантные ключевые слова. Ранние поисковые системы, такие как Altavista и Infoseek, скорректировали свои алгоритмы, чтобы веб-мастера не могли манипулировать рейтингом.

В значительной степени полагаясь на такие факторы, как плотность ключевых слов, которые находились исключительно под контролем веб-мастеров, ранние поисковые системы страдали от злоупотреблений и манипулирования ранжированием. Чтобы предоставлять лучшие результаты своим пользователям, поисковые системы должны были адаптироваться, чтобы их страницы результатов отображали наиболее релевантные результаты поиска, а не несвязанные страницы, заполненные множеством ключевых слов недобросовестными веб-мастерами. Это означало переход от сильной зависимости от плотности терминов к более целостному процессу оценки семантических сигналов. Поскольку успех и популярность поисковой системы определяется ее способностью выдавать наиболее релевантные результаты для любого заданного поиска, низкое качество или нерелевантные результаты поиска могут побудить пользователей искать другие источники поиска. В ответ поисковые системы разработали более сложные алгоритмы ранжирования с учетом дополнительных факторов, которыми веб-мастерам было труднее манипулировать. В 2005 году была организована ежегодная конференция AIRWeb (Adversarial Information Retrieval in the Web), чтобы собрать вместе практиков и исследователей, занимающихся поисковой оптимизацией и смежными темами.

Компании, использующие чрезмерно агрессивные методы, могут найти своих клиентов веб-сайты, заблокированные из результатов поиска. В 2005 году Wall Street Journal сообщил о компании Traffic Power, которая якобы использовала высокорисковые методы и не раскрывала эти риски своим клиентам. Wired Журнал сообщил, что та же компания подала в суд на блогера и SEO-специалиста Аарона Уолла за то, что он написал о запрете. Мэтт Каттс из Google позже подтвердил, что Google на самом деле запретил Traffic Power и некоторых своих клиентов.

Некоторые поисковые системы также обращаются к индустрии SEO и часто являются спонсорами и гостями на SEO-конференции, веб-чаты и семинары. Основные поисковые системы предоставляют информацию и рекомендации по оптимизации веб-сайта. У Google есть программа Sitemaps, которая помогает веб-мастерам узнать, есть ли у Google какие-либо проблемы при индексировании их веб-сайтов, а также предоставляет данные о трафике Google на веб-сайт. Инструменты Bing для веб-мастеров позволяют веб-мастерам отправляет карту сайта и веб-каналы, позволяет пользователям определять "скорость сканирования" и отслеживать статус индекса веб-страниц.

В 2015 году сообщалось, что Google разрабатывает и продвигает мобильный поиск как ключевую функцию в будущих продуктах. В ответ многие бренды начали применять другой подход к своим стратегиям интернет-маркетинга.

Отношения с Google

В 1998 году двое аспирантов Стэнфордского университета, Ларри Пейдж и Сергей Брин разработали "Backrub", поисковую машину, которая полагалась на математический алгоритм для оценки известности веб-страниц. Число, вычисленное алгоритмом, PageRank, является функцией количества и силы входящих ссылок. PageRank оценивает вероятность того, что данная страница будет достигнута веб-пользователем, который случайным образом просматривает веб-страницы и переходит по ссылкам с одной страницы на другую. По сути, это означает, что некоторые ссылки сильнее других, поскольку страница с более высоким PageRank с большей вероятностью будет достигнута случайным веб-серфером.

Пейдж и Брин основали Google в 1998 году. У Google появился лояльный поклонник среди растущего числа пользователей Интернета, которым нравился его простой дизайн. Учитывались внешние факторы (такие как PageRank и анализ гиперссылок), а также факторы на странице (такие как частота ключевых слов, метатеги, заголовки, ссылки и структура сайта), чтобы Google мог избежать подобных о манипуляциях, замеченных в поисковых системах, которые учитывают только факторы страницы для своего ранжирования. Хотя PageRank был более трудным для игры, веб-мастера уже разработали инструменты и схемы построения ссылок, чтобы повлиять на поисковую систему Inktomi, и эти методы оказались одинаково применимы к игровому PageRank. Многие сайты ориентированы на обмен, покупку и продажу ссылок, часто в массовом масштабе. Некоторые из этих схем, или фермы ссылок, включали создание тысяч сайтов с единственной целью рассылки ссылочного спама.

. К 2004 году поисковые системы включили широкий спектр нераскрытых факторов в свои алгоритмы ранжирования для уменьшения воздействия манипуляций со ссылками. В июне 2007 года Саул Ханселл из New York Times заявил, что Google ранжирует сайты, используя более 200 различных сигналов. Ведущие поисковые системы Google, Bing и Yahoo не раскрывают алгоритмы, которые они используют для ранжирования страниц. Некоторые специалисты по SEO изучили различные подходы к поисковой оптимизации и поделились своим личным мнением. Патенты, относящиеся к поисковым системам, могут предоставить информацию для лучшего понимания поисковых систем. В 2005 году Google начал персонализировать результаты поиска для каждого пользователя. В зависимости от их истории предыдущих поисков Google обрабатывал результаты для зарегистрированных пользователей.

В 2007 году Google объявил кампанию против платных ссылок, которые передают PageRank. 15 июня 2009 года Google сообщил, что они приняли меры для смягчения последствий изменения рейтинга страниц с помощью атрибута nofollow в ссылках. Мэтт Каттс, известный инженер-программист в Google, объявил, что Google Bot больше не будет обрабатывать любые ссылки nofollow таким же образом, чтобы поставщики услуг SEO не использовали nofollow для формирования PageRank. В результате этого изменения использование nofollow привело к испарению PageRank. Чтобы избежать описанного выше, инженеры SEO разработали альтернативные методы, которые заменяют теги nofollow на обфусцированный JavaScript и, таким образом, позволяют формировать PageRank. Кроме того, было предложено несколько решений, которые включают использование iframe, Flash и JavaScript.

В декабре 2009 года Google объявил, что будет использовать историю веб-поиска для всем своим пользователям, чтобы заполнять результаты поиска. 8 июня 2010 г. была анонсирована новая система веб-индексирования Google Caffeine. Google Caffeine, созданный для того, чтобы пользователи могли находить результаты новостей, сообщения на форумах и другой контент намного раньше после публикации, чем раньше, внес изменения в способ обновления индекса Google, чтобы информация отображалась в Google быстрее, чем раньше. По словам Кэрри Граймс, разработчика программного обеспечения, анонсировавшего использование кофеина для Google, «кофеин обеспечивает на 50 процентов более свежие результаты поиска в Интернете, чем наш последний индекс...» Google Instant, поиск в реальном времени, был представлен в конец 2010 г., чтобы сделать результаты поиска более актуальными и актуальными. Исторически администраторы сайтов тратили месяцы или даже годы на оптимизацию веб-сайта для повышения рейтинга в поисковой выдаче. С ростом популярности социальных сетей и блогов ведущие поисковые системы внесли изменения в свои алгоритмы, чтобы свежий контент мог быстро ранжироваться в результатах поиска.

В феврале 2011 года Google анонсировал Panda обновление, которое наказывает веб-сайты, содержащие контент, дублированный с других веб-сайтов и источников. Исторически сложилось так, что веб-сайты копировали контент друг с друга и благодаря этой практике получали выгоду в поисковых системах. Однако Google внедрил новую систему, которая наказывает сайты, содержание которых не является уникальным. 2012 Google Penguin попытался наказать веб-сайты, которые использовали манипулятивные методы для повышения своего рейтинга в поисковой системе. Хотя Google Penguin был представлен как алгоритм, направленный на борьбу со спамом, он действительно фокусируется на спамерских ссылках, оценивая качество сайтов, с которых они поступают. В обновлении Google Hummingbird 2013 года было внесено изменение в алгоритм, призванное улучшить обработку естественного языка Google и семантическое понимание веб-страниц. Система языковой обработки Hummingbird подпадает под недавно признанный термин «разговорный поиск », где система уделяет больше внимания каждому слову в запросе, чтобы страницы лучше соответствовали значению запроса, а не нескольким слова. Что касается изменений, внесенных в поисковую оптимизацию, для издателей и авторов контента Hummingbird предназначен для решения проблем, избавляясь от нерелевантного контента и спама, что позволяет Google создавать высококачественный контент и полагаться на него. быть «доверенными» авторами.

В октябре 2019 года Google объявил о начале применения моделей BERT для поисковых запросов на английском языке в США. Двунаправленные представления кодировщика от Transformers (BERT) были еще одной попыткой Google улучшить обработку естественного языка, но на этот раз для лучшего понимания поисковых запросов своих пользователей. С точки зрения поисковой оптимизации, BERT призван упростить подключение пользователей к релевантному контенту и повысить качество трафика, поступающего на веб-сайты, которые ранжируются на странице результатов поиска.

Методы

Индексирование

Поисковые системы используют сложные математические алгоритмы, чтобы интерпретировать, какие сайты ищет пользователь. На этой диаграмме, если каждый кружок представляет веб-сайт, программы, которые иногда называют пауками, проверяют, какие сайты ссылаются на какие другие сайты, со стрелками, представляющими эти ссылки. Предполагается, что веб-сайты, получающие больше входящих или более сильных ссылок, имеют большее значение и то, что ищет пользователь. В этом примере, поскольку веб-сайт B является получателем многочисленных входящих ссылок, он занимает более высокие позиции в поисковой сети. И ссылки «переносятся», так что веб-сайт C, даже если он имеет только одну входящую ссылку, имеет входящую ссылку с очень популярного сайта (B), а сайт E - нет. Примечание. Проценты округлены.

Ведущие поисковые системы, такие как Google, Bing и Yahoo!, используют сканеры для найти страницы для своих алгоритмических результатов поиска. Страницы, на которые есть ссылки со страниц, проиндексированных другими поисковыми системами, не нужно отправлять, потому что они обнаруживаются автоматически. Yahoo! Каталог и DMOZ, два основных каталога, которые закрылись в 2014 и 2017 годах соответственно, требовали ручной подачи и редакционной проверки человеком. Google предлагает Google Search Console, для которого можно бесплатно создать и отправить фид XML Sitemap, чтобы гарантировать, что все страницы будут найдены, особенно страницы, которые нельзя обнаружить, автоматически переходя по ссылкам в в дополнение к их консоли отправки URL. Yahoo! ранее использовала платную службу отправки, которая гарантировала сканирование по цене за клик ; однако эта практика была прекращена в 2009 году.

Сканеры поисковой системы могут учитывать ряд различных факторов при сканировании сайта. Не каждая страница индексируется поисковыми системами. Расстояние между страницами и корневым каталогом сайта также может быть фактором, определяющим, будут ли страницы сканироваться.

Сегодня большинство людей ищут в Google с помощью мобильных устройств. В ноябре 2016 года Google объявил о серьезных изменениях в способе сканирования веб-сайтов и начал делать свой индекс в первую очередь мобильным, что означает, что мобильная версия данного веб-сайта становится отправной точкой для того, что Google включает в свой индекс. В мае 2019 года Google обновил механизм рендеринга своего краулера до последней версии Chromium (74 на момент объявления). Google сообщил, что они будут регулярно обновлять механизм рендеринга Chromium до последней версии. В декабре 2019 года Google начал обновлять строку User-Agent своего сканера, чтобы отразить последнюю версию Chrome, используемую их службой рендеринга. Задержка заключалась в том, чтобы дать веб-мастерам время обновить свой код, который отвечал на определенные строки User-Agent бота. Google провел оценки и был уверен, что влияние будет незначительным.

Предотвращение сканирования

Чтобы избежать нежелательного содержания в поисковых индексах, веб-мастера могут указать паукам не сканировать определенные файлы или каталоги с помощью стандартного файл robots.txt в корневом каталоге домена. Кроме того, страницу можно явно исключить из базы данных поисковой системы с помощью метатега , специфичного для роботов (обычно ). Когда поисковая система посещает сайт, первым просканированным файлом является robots.txt, расположенный в корневом каталоге. Затем файл robots.txt анализируется и сообщает роботу, какие страницы не следует сканировать. Поскольку сканер поисковой системы может хранить кэшированную копию этого файла, он может иногда сканировать страницы, сканирование которых веб-мастер не желает. Страницы, сканирование которых обычно предотвращается, включают страницы для входа в систему, такие как корзины покупок, и пользовательский контент, такой как результаты внутреннего поиска. В марте 2007 года Google предупредил веб-мастеров, что они должны предотвратить индексацию результатов внутреннего поиска, поскольку эти страницы считаются поисковым спамом.

Повышение узнаваемости

Повышение узнаваемости веб-страницы в результаты поиска. Перекрестные ссылки между страницами одного и того же веб-сайта для предоставления большего количества ссылок на важные страницы могут улучшить его видимость. Написание контента, который включает часто используемые ключевые фразы, чтобы соответствовать широкому кругу поисковых запросов, будет иметь тенденцию к увеличению трафика. Обновление контента, чтобы поисковые системы часто сканировали, может придать сайту дополнительный вес. Добавление релевантных ключевых слов в метаданные веб-страницы, включая тег заголовка и метаописание, будет иметь тенденцию повышать релевантность поисковых списков сайта, тем самым увеличивая посещаемость. Канонизация URL веб-страниц, доступных по нескольким URL, с использованием элемента канонической ссылки или с помощью 301 редиректа может помочь убедиться, что ссылки на разные версии URL учитываются к показателю ссылочной популярности страницы.

Белая шляпа против методов черной шляпы

Методы SEO можно разделить на две большие категории: методы, которые компании поисковых систем рекомендуют как часть хорошего дизайна («белая шляпа»), и методы какие поисковые системы не одобряют («черная шляпа»). Поисковые системы пытаются минимизировать влияние последних, в том числе спамодексирование. Отраслевые комментаторы классифицировали эти методы и практикующих специалистов, как белая шляпа SEO или черная шляпа SEO. Белые шляпы, как правило, дают результаты, которые сохраняются надолго, в то время как черные ожидают, что их сайты в конечном итоге могут быть заблокированы временно или навсегда, как только поисковые системы обнаружат, что они делают.

Техника SEO считается белой шляпой. если он соответствует рекомендациям поисковых систем и не содержит обмана. Поскольку руководство для поисковых систем не записано в виде серии правил или заповедей, это важное различие, которое следует отметить. Белая шляпа SEO - это не только следование руководящим принципам, но и обеспечение того, чтобы контент, который индексирует поисковая система и впоследствии ранжировал, был таким же контентом, который увидит пользователь. Совет в белой шляпе обычно сводится к созданию контента для пользователей, а не для поисковых систем, а затем к тому, чтобы сделать этот контент легкодоступным для онлайн-алгоритмов «пауков», вместо того, чтобы пытаться обмануть алгоритм по его прямому назначению. Белая шляпа SEO во многом схожа с веб-разработкой, которая способствует доступности, хотя они не идентичны.

Черная шляпа SEO пытается улучшить рейтинг способами, которые не одобряются поисковыми системами, или включают обман. Одна из техник черной шляпы использует скрытый текст либо в виде текста, окрашенного аналогично фону, в невидимом div, либо в виде текста за пределами экрана. Другой метод дает другую страницу в зависимости от того, запрашивается ли страница посетителем-человеком или поисковой системой, метод, известный как маскировка. Еще одна категория, которую иногда используют, - это серая SEO. Это что-то среднее между подходами «черная шляпа» и «белая шляпа», когда используемые методы позволяют избежать наказания сайта, но не способствуют созданию лучшего контента для пользователей. Gray hat SEO полностью сосредоточен на повышении рейтинга в поисковых системах.

Поисковые системы могут наказывать сайты, которые они обнаруживают, используя методы черной или серой шляпы, либо снижая их рейтинг, либо полностью удаляя их списки из своих баз данных. Такие штрафы могут применяться либо автоматически алгоритмами поисковых систем, либо при проверке сайта вручную. Одним из примеров было удаление компанией Google в феврале 2006 года как BMW Германия, так и Ricoh Германия за использование обманных действий. Обе компании, однако, быстро извинились, исправили проблемные страницы и были восстановлены на странице результатов поисковой системы Google.

В качестве маркетинговой стратегии

SEO не является подходящей стратегией для каждого веб-сайта и других Стратегии интернет-маркетинга могут быть более эффективными, например платная реклама через кампании с оплатой за клик (PPC), в зависимости от целей оператора сайта. Маркетинг в поисковых системах (SEM) - это практика разработки, проведения и оптимизации рекламных кампаний в поисковых системах. Его отличие от SEO проще всего описать как разницу между платным и неоплачиваемым приоритетом в результатах поиска. SEM уделяет больше внимания известности, чем актуальности; Разработчики веб-сайтов должны уделять SEM первостепенное значение с точки зрения видимости, поскольку большинство из них переходят к основным спискам своего поиска. Успешная маркетинговая кампания в Интернете может также зависеть от создания высококачественных веб-страниц для вовлечения и убеждения пользователей Интернета, настройки программ аналитики, позволяющих владельцам сайтов оценивать результаты, и повышения коэффициента конверсии. В ноябре 2015 года Google выпустил для общественности полную 160-страничную версию своих рекомендаций по оценке качества поиска, в которой обнаружилось смещение их внимания к «полезности» и мобильному поиску. В последние годы рынок мобильной связи резко вырос, обогнав использование настольных компьютеров, как показано в StatCounter в октябре 2016 года, когда они проанализировали 2,5 миллиона веб-сайтов и обнаружили, что 51,3% страниц были загружены с помощью мобильных устройств. Google была одной из компаний, которые используют популярность использования мобильных устройств, поощряя веб-сайты использовать их Google Search Console, Тест на удобство использования мобильных устройств, который позволяет компаниям оценивать свои веб-сайт в результаты поисковой системы и определить, насколько удобны их веб-сайты.

SEO может обеспечить адекватную рентабельность инвестиций. Однако поисковым системам не платят за органический поисковый трафик, их алгоритмы меняются, и нет никаких гарантий продолжения переходов. Из-за отсутствия гарантии и неопределенности бизнес, который сильно зависит от трафика поисковых систем, может понести большие убытки, если поисковые системы перестанут отправлять посетителей. Поисковые системы могут изменять свои алгоритмы, влияя на рейтинг сайта в поисковых системах, что может привести к серьезной потере трафика. По словам генерального директора Google Эрика Шмидта, в 2010 году Google внес более 500 изменений в алгоритм - почти 1,5 раза в день. Для операторов веб-сайтов разумной деловой практикой считается освобождение от зависимости от трафика поисковых систем. Помимо доступности с точки зрения поисковых роботов (о чем говорилось выше), для SEO все большее значение приобретает доступность для пользователей в Интернете.

Международные рынки

Методы оптимизации сильно адаптированы к доминирующим поисковым системам на целевом рынке. Рыночные доли поисковых систем варьируются от рынка к рынку, как и конкуренция. В 2003 году Дэнни Салливан заявил, что на Google приходится около 75% всех поисковых запросов. На рынках за пределами США доля Google часто больше, и Google остается доминирующей поисковой системой в мире по состоянию на 2007 год. По состоянию на 2006 год доля Google на рынке Германии составляла 85–90%. В то время в США были сотни SEO-фирм, а в Германии их было всего пять. По данным Hitwise, на июнь 2008 г. рыночная доля Google в Великобритании приближалась к 90%. Эта доля рынка достигнута в ряде стран.

По состоянию на 2009 г. существует всего несколько крупных рынков, на которых Google не является ведущей поисковой системой. В большинстве случаев, когда Google не является лидером на определенном рынке, он отстает от местного игрока. Наиболее яркими примерами рынков являются Китай, Япония, Южная Корея, Россия и Чешская Республика, где соответственно Baidu, Yahoo! Япония, Naver, Яндекс и Seznam - лидеры рынка.

Для успешной поисковой оптимизации для международных рынков может потребоваться профессиональный перевод веб-страниц, регистрация доменного имени с доменом верхнего уровня на целевом рынке и веб-хостинг, который предоставляет локальный IP-адрес. В остальном, фундаментальные элементы поисковой оптимизации по существу одинаковы, независимо от языка.

Правовые прецеденты

17 октября 2002 года SearchKing подала иск в Окружной суд США, Западный округ Оклахома, против поисковой системы Google. SearchKing утверждает, что тактика Google по предотвращению спама представляет собой вредоносное вмешательство в договорные отношения. 27 мая 2003 г. суд удовлетворил ходатайство Google об отклонении жалобы, поскольку SearchKing "не представил иска, по которому может быть предоставлена ​​компенсация".

В марте 2006 г. KinderStart подала иск против Google выше рейтинга в поисковых системах. Сайт KinderStart был удален из индекса Google перед судебным иском, и объем трафика на сайт упал на 70%. 16 марта 2007 г. Окружной суд США Северного округа Калифорнии (Сан-Хосе округ) отклонил жалобу KinderStart без разрешения на внесение поправок и частично удовлетворил ходатайство Google о Правило 11 санкции против поверенного KinderStart, требующие от него оплаты части юридических расходов Google.

См. Также

Примечания

Внешние ссылки

Слушайте эту статью Разговорный значок Википедии Этот аудиофайл был создана на основе редакции этой статьи от 20 мая 2008 г. и не отражает последующие правки. ()
Последняя правка сделана 2021-06-07 07:34:28
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте