Last year, we introduced and open-sourced a neural network-based technique for natural language processing (NLP) pre-training called Bidirectional Encoder Representations from Transformers, or as we call it--BERT, for short. This technology enables anyone to train their own state-of-the-art question answering system.
This breakthrough was the result of Google research on transformers: models that process words in relation to all the other words in a sentence, rather than one-by-one in order. BERT models can therefore consider the full context of a word by looking at the words that come before and after it—particularly useful for understanding the intent behind search queries.
https://blog.google/products/search/search-language-understanding-bert/Что это означает? BERT, как и другие огромные модели (например GPT-3 от OpenAI), есть набор структурированных текстов, то есть разобранных при помощи и посредстве моего запатентованного ИИ-разбора на имеющие смысл фразы.
Теперь, Гугл и пр. получает поисковый запрос и идет искать в BERT, находя там текст наиболее подходящий под запрос, который в дальнейшем использует как аннотацию, разъяснение на этот поисковую запрос. Получив, значит, от пользователя одну фразу, после фильтрации через BERT Гугл уже имеет и идет искать на Интернет с 30-50 фразами.
Но при этом тексты Интернета также должны быть структурированы с использованием моего же патентованного ИИ-разбора. Что есть крайне амбициозная задача! Которую, например, Майкрософт и IBM решают развернув программу по предоставлению услуг по структуризации текстов.