Google заявил, что Bidirectional Encoder Representations From Transformers, он же BERT, - алгоритм для глубокого обучения. Он базируется на технологии, обрабатывающей естественный язык (NLP) с помощью нейросети. Звучит довольно непонятно, однако все элементарно.
Алгоритм Google Bert выполняет очень важную задачу, выдавая пользователю результаты, соответствующие тому, что он искал в поисковике. Bert знает естественную человеческую речь, и благодаря этому может максимально эффективно выявить нужную страницу и предложить ее пользователю.
Все просто. Bert нужен для того, чтобы Вы могли найти нужную информация или интернет-магазин не придумывая “правильные запросы”, а писать так, как говорите в реальной жизни.
BERT научился понимать интерпретацию интента и контекста поисковой фразы, взяв во внимание весь запрос, а не только отдельно взятые слова.
BERT является программой с машинным обучением, поэтому он может учиться самостоятельно. Сейчас BERT выучил лишь несколько языков, однако в будущем он обучится всем.
Google давно вел работы над пониманием человеческого языка роботами. Сама идея BERT появилась в 2017 году. В то время команда Google AI начала работать над Transformers. Это проект, который был создан, чтобы разработать обновленную структуру нейросети для понимания естественного языка.
Благодаря Transformers слова стали обрабатываться фразами, то есть по отношению друг к другу, а не просто отдельными словами. После этого проект стал частью поискового алгоритма BERT.
Под конец 2018 Google впервые показал миру алгоритм, способный обрабатывать естественный язык Google BERT. Его особенность - глубокая двунаправленность во время передачи контекста фразы.
Данный алгоритм - это прогресс искусственного интеллекта в понимании естественного языка.
Алгоритм вышел совсем недавно и поэтому проанализировать возможно лишь зарубежных коллег.
BERT на Западе функционирует с ноября 2019 и нам известно, что он подвергает влиянию 10% поисковых фраз в Гугл.
Изменения в основном происходят для запросов состоящих из больших уточняющих фраз, сформулированных для устной речи.
Специалисты отмечают, что отныне значительную роль имеют предлоги. Напомним, что ранее они не особо влияли при составлении семантики.
В целом, для сайтов, которые изначально писали “человеческие” тексты, ничего не меняется. Они будут занимать хорошие позиции и расти.
Гугл ориентируется сейчас исключительно на интересы людей, поэтому больше нет необходимости вставлять “ключи ради ключей”.
Google не дает по этому поводу никаких рекомендаций. Google ранее анализировал запросы как набор из ключевых фраз, после чего подбирал релевантные страницы сайтов. BERT же понимает смысл запроса (за счет анализа вспомогательных слов в поисковых запросах).
Ответственный подход к написанию контента поможет повысить ваш рейтинг в поисковике в целом. Важно, чтобы контент соответствовал запросам пользователя. Также Вы можете провести аналитику поисковых запросов и дополнить их релевантными фразами, создать новые страницы с естественным контентом. Данные действия будут полезны для любых алгоритмов.
Об авторе |
|