Как с помощью AI писать статьи, которые выведут ваш сайт в ТОП Яндекса и Google

Full Transcript — Download SRT & Markdown

00:00
Speaker A
А, друзья, всем привет, спасибо, что сегодня собрались.
00:02
Speaker A
Буду вам сегодня рассказывать интересную тему про семантическое SEO.
00:05
Speaker A
Немножко обо мне, я фаундер Rush Agency и продукт SEO-Agents.io, с 2008 года в SEO, и сейчас лидирую направление AI-разработки в нашей компании.
00:17
Speaker A
И сегодня у меня для вас очень много интересной инфы, но времени очень мало, поэтому будет много визуала, следите за руками.
00:23
Speaker A
О чём вообще поговорим сегодня: это семантический поиск, почему он уходит от ключевых слов к сущностям, спойлер, ключевые слова больше не работают, можете забить на это.
00:30
Speaker A
Как вытаскивать сущности из Knowledge Graph, расскажу, будет много англицизмов, буду стараться переводить, entity — это сущность, по-английски, потому что во всей документации это entities.
00:38
Speaker A
Как автоматизировать Entity-анализ с помощью AI-агентов, то, что вы должны сегодня вынести из презентации, как делается ТЗ на тексты, аутлайны статей, полные планы статей, которые действительно будут ранжироваться потом.
00:47
Speaker A
Расскажу про AI-тексты, много интересной инфы привёз из своих поездок в Чиангмай и другие западные конференции, которые были там неделю назад, для вас нарезал.
00:57
Speaker A
И почему AI-тексты у одних в топе, а у других не совсем, ну и как попадать в рекомендации ChatGPT с помощью семантического SEO и других фишек.
01:05
Speaker A
Начнём с семантического поиска, семантического веба.
01:08
Speaker A
Почему эта эра пришла, как это работает?
01:13
Speaker A
То есть раньше можно было спамить ключами, там, пластиковые окна Москва и прочее.
01:20
Speaker A
Потому что главенствующие алгоритмы это были TF/IDF и BM25, которые многие из вас знают.
01:26
Speaker A
Теперь поисковики и LLM, LLM-ки это нейросети, извлекают сущности, смыслы и интенты, также строят граф знаний.
01:33
Speaker A
Сейчас это работает именно так, это не будущая технология какая-то, да?
01:37
Speaker A
У нас есть два основных понятия в семантическом вебе: это таксономия — это структура и иерархия, и онтология — это связь между сущностями.
01:44
Speaker A
Например, Стив Джобс — фаундер Apple.
01:48
Speaker A
iPhone был запущен в 2007 году.
01:50
Speaker A
Стив Джобс родился в Сан-Франциско.
01:52
Speaker A
Сан-Франциско находится в Калифорнии.
01:54
Speaker A
Вот он, в принципе, Knowledge Graph, граф связей, кому как удобно.
01:57
Speaker A
А почему это классная штука? Эта концепция делает информацию понятнее и для машин, и для людей.
02:03
Speaker A
Давайте посмотрим, что такое таксономия.
02:05
Speaker A
У нас есть животные, например.
02:06
Speaker A
Есть млекопитающие.
02:08
Speaker A
Кошки.
02:09
Speaker A
Домашняя кошка.
02:11
Speaker A
Сиамская кошка.
02:12
Speaker A
То есть таксономия описывает иерархию чего-либо от общего к частному.
02:17
Speaker A
То есть это сужает какое-либо понятие, да?
02:20
Speaker A
В Википедии, Wikidata, Knowledge Graph и, например, той же Investopedia, большом сайте, данные построены именно так, структурированы страницы именно так.
02:27
Speaker A
Давайте посмотрим теперь на онтологию.
02:30
Speaker A
Есть утверждение: кошка — это домашнее животное.
02:33
Speaker A
Кошка ест корм.
02:35
Speaker A
Думаю, всем очевидно, кошка — друг человека.
02:37
Speaker A
Кошка любит молоко.
02:39
Speaker A
Кошка имеет шерсть.
02:40
Speaker A
То есть вот так устроена связь сущностей.
02:42
Speaker A
На очень простом примере, по-русски, перейдём теперь к научным немножко понятиям, которые используются в поисковой математике и в поиске сейчас, что в Яндексе, что в Гугле.
02:48
Speaker A
Это самая важная штука в семантическом поиске — это триплеты.
02:54
Speaker A
Именно модель Subject-Predicate-Object.
02:56
Speaker A
Где у нас Subject — кошка, любит — это Predicate, а молоко — это Object.
03:00
Speaker A
Вот связь сущностей в Knowledge Graph устроена вот так вот.
03:04
Speaker A
Также это может быть Binance предоставляет услугу трейдинга.
03:08
Speaker A
Где Subject, Predicate, Object.
03:10
Speaker A
Как это выглядит в Knowledge Graph?
03:13
Speaker A
Binance работает с Европой.
03:15
Speaker A
Binance имеет лицензию, где Европа, лицензия — это сущности.
03:19
Speaker A
Binance конкурирует с Coinbase.
03:21
Speaker A
И Binance поддерживает Bitcoin.
03:23
Speaker A
Думаю, как бы всем это очевидно в таком формате.
03:27
Speaker A
Почему вообще поиск пришёл от ключевых слов на изучение смыслов, семантики, Knowledge Graph и прочего, да?
03:32
Speaker A
Да мы стали искать по-другому.
03:34
Speaker A
25% запросов в поиск в США сейчас выполняется с помощью голоса.
03:39
Speaker A
А зумеры вообще каждый день используют больше половины зумеров.
03:42
Speaker A
Как это выглядит?
03:44
Speaker A
Раньше мы искали итальянский ресторан Профсоюзная.
03:46
Speaker A
Сейчас мы берём что, мы берём мобилу, вот так вот зажимаем в Гугле либо в Алисе микрофон и говорим:
03:53
Speaker A
Найди мне ресторан итальянской кухни с высокой оценкой в районе метро Профсоюзная, который работает до 23:00.
03:59
Speaker A
Потому что до 22:00 мы хотим попить винишка.
04:01
Speaker A
Красиво, приятно.
04:04
Speaker A
То есть наши запросы — это теперь скоро промты, чем ключевые слова.
04:08
Speaker A
И без понимания смысла запроса поиск не сможет дать вам ответ.
04:13
Speaker A
Почему? Потому что такого вхождения не будет ни на одной странице.
04:16
Speaker A
Раньше мы искали вот так, потому что знали.
04:20
Speaker A
Мы ищем вхождение по факту на странице.
04:23
Speaker A
Как это выглядит внутри поиска?
04:25
Speaker A
Здесь лазер есть?
04:27
Speaker A
Пиу-пиу.
04:28
Speaker A
Да, есть.
04:30
Speaker A
Поиск раскалывает вот этот вот запрос, вот этот, который я, ну, про итальянский ресторан.
04:36
Speaker A
На такие штуки.
04:38
Speaker A
Интент, какой интент вообще, там, поиск либо запрос.
04:43
Speaker A
Там есть другие типы интентов, да, там, купить, например.
04:46
Speaker A
Там тип сущности — ресторан.
04:48
Speaker A
И атрибуты: итальянская кухня, рейтинг.
04:50
Speaker A
Есть локация и там атрибут закрытия после 23:00.
04:53
Speaker A
Переведём на русский.
04:55
Speaker A
Что поиск думает?
04:56
Speaker A
То есть как он работает: что ищем — ресторан, не магазин, не отель, ничего.
05:00
Speaker A
Какую итальянскую кухню должен он подавать, не китайскую, не русскую, именно итальянскую.
05:05
Speaker A
Ресторан имеет рейтинг выше 4.0.
05:08
Speaker A
Ресторан находится в какой-то локации.
05:10
Speaker A
Ну и так далее.
05:13
Speaker A
И обязательно, что время его работы заканчивается в 23:00 либо позднее.
05:17
Speaker A
Вот так может выглядеть сущность, которая хранится в Knowledge Graph в поиске Гугла.
05:20
Speaker A
Я говорю про Google, в Яндексе работает пока обычно примитивнее, но примерно так же.
05:25
Speaker A
Есть сущность Trattoria Giovanni.
05:26
Speaker A
У неё есть тип — ресторан, название, кухня, рейтинг.
05:30
Speaker A
Вся вот такая интересная информация, там, закрывается он в 23:00.
05:34
Speaker A
Средний чек и прочее.
05:36
Speaker A
Вот так это может выглядеть в Гугле.
05:39
Speaker A
Далее происходит ранжирование, когда мы такой запрос задаём.
05:42
Speaker A
Поиск проверяет полноту соответствия, что атрибуты совпали.
05:45
Speaker A
Близость к локации, которую мы выбрали.
05:48
Speaker A
Рейтинг он проверяет.
05:49
Speaker A
Актуальность данных, дата последнего обновления, например.
05:52
Speaker A
Отзывы.
05:53
Speaker A
Ну и коммерческие сигналы.
05:55
Speaker A
Он может много параметров таких проверять, это так, к примеру, упрощённый.
05:59
Speaker A
Дальше мы видим знакомые ответы совершенно.
06:02
Speaker A
Это Google AI-Mode, который, замечательно.
06:04
Speaker A
В августе, сентябре, октябре раскатали в России.
06:07
Speaker A
И он говорит: по твоим критериям есть там два рестика.
06:11
Speaker A
Trattoria Da Chicco и Il Pittore.
06:13
Speaker A
Я живу, и действительно они все совпадают, это два хороших ресторана по всем этим параметрам.
06:18
Speaker A
То есть поиск его.
06:21
Speaker A
Ну и также поиск с Алисой.
06:23
Speaker A
Почему я показываю нейроответы? Потому что с обычным поиском оно действительно так же всё работает.
06:28
Speaker A
Просто ещё хочется нейроответы показать.
06:31
Speaker A
Он нашёл опять же Trattoria Da Chicco, Il Borgo, там, Il Pittore.
06:36
Speaker A
Всё это всё, да, рестораны в этом районе, они все действительно подходят.
06:41
Speaker A
А как это работает в поисковых системах?
06:44
Speaker A
Изначально весь этот алгоритм, как он сейчас устроен.
06:48
Speaker A
Вот здесь идёт загрузка, то есть краулинг, поисковик Яндекс, Google скачивает урлы, JSON-ы, PDF-ки, там, просто там тексты откуда-то, всё, что угодно.
06:56
Speaker A
Он мультимодальный, он может всё скачивать, даже видосы распознавать.
07:01
Speaker A
Дальше он делит это на чанки.
07:04
Speaker A
То есть он каждый кусок нарезает, каждый документ нарезает на куски.
07:08
Speaker A
Потом каждый этот кусочек векторизирует.
07:11
Speaker A
Переводит в векторный формат.
07:13
Speaker A
Сейчас мы поговорим про векторный формат, мы не будем касаться многомерных векторных пространств, это нам не интересно, потому что на этом деньги не заработать.
07:18
Speaker A
Но они там есть.
07:20
Speaker A
И в результате вот эти документы превращаются в базу векторов, в векторную базу данных.
07:27
Speaker A
Как поиск понимает, что какие-то слова лежат в Knowledge Graph близко, а какие-то далеко?
07:33
Speaker A
Используя косинусную близость.
07:35
Speaker A
И у нас есть два близких слова — это кошка и котёнок.
07:40
Speaker A
У них маленький угол между ними.
07:42
Speaker A
Соответственно, результирующий вектор будет вот такой.
07:44
Speaker A
А есть кошка и кирпич.
07:46
Speaker A
Совершенно разные вещи.
07:48
Speaker A
Поэтому результирующий вектор будет маленький.
07:50
Speaker A
То есть всё очень простой математикой считается, и он в векторном формате умеет это определять.
07:56
Speaker A
Вот модель из документации, есть патент Google DeepMind.
08:01
Speaker A
Здесь совершенно так же, как я рассказал, работает.
08:05
Speaker A
Что есть краулер, который там внутри режет, вот тут на эмбеддинге это режется.
08:10
Speaker A
То есть делать эмбеддинги — это как раз векторизировать информацию.
08:13
Speaker A
Сохранить в базу данных.
08:15
Speaker A
Он лежит на эмбеддинг-сервере.
08:18
Speaker A
И потом, когда вы выполняете поиск, он вот тупо с помощью Machine Learning-а вам всё это, как я показал выше, считает.
08:24
Speaker A
Вот это из документации Гугла.
08:26
Speaker A
Как применить на практике? Наша задача — сделать крутые аутлайны статей, которые залетают в топ в момент индексации.
08:30
Speaker A
Что нам нужно сделать?
08:31
Speaker A
Нам нужно взять тексты конкурентов.
08:33
Speaker A
Разбить на чанки, порезать.
08:35
Speaker A
Выделить оттуда сущности.
08:37
Speaker A
Посчитать, какие сущности ближе всего к нашему основному ключевому слову.
08:41
Speaker A
Как посчитать? С помощью косинусной близости, как я показывал.
08:44
Speaker A
Построить два списка: это Primary Entity, то есть выделить главную сущность.
08:49
Speaker A
И какие сущности поддерживают, лежат рядом, Supporting Entity Network.
08:53
Speaker A
Посмотреть, как это всё связано.
08:55
Speaker A
И найти реальные интенты пользователей.
08:57
Speaker A
И только потом сделать план статьи.
08:59
Speaker A
Заметьте, здесь нигде не говорю про какие-то ключевые слова, там, частотки.
09:05
Speaker A
Где брать сущности?
09:07
Speaker A
Можно брать из Википедии.
09:08
Speaker A
Можно брать API Knowledge Graph.
09:11
Speaker A
К сожалению, мой дизайнер удалил здесь звёздочку, думал, что она лишняя.
09:15
Speaker A
Есть API Knowledge Graph, который доступен просто так, а есть API Knowledge Graph для учёных, Scientific.
09:21
Speaker A
Домашнее задание: если сможете его достать, у вас в 100 раз увеличится эффективность.
09:26
Speaker A
Мы используем Scientific API.
09:28
Speaker A
Было бы слишком просто, если бы я рассказал, в какой стране надо открыть ключ, чтобы его получить.
09:34
Speaker A
Как понять, какие сущности нужны на странице?
09:37
Speaker A
Мы берём, как бы, тексты конкурентов, режем на чанки.
09:40
Speaker A
Кстати, можно использовать и другие источники дополнительно, например, мы иногда ещё идём в Reddit, идём в YouTube.
09:45
Speaker A
Процессим видео и пытаемся понять сущности вообще в тематике, какие есть.
09:51
Speaker A
Далее делаем экстракцию сущностей.
09:53
Speaker A
Превращаем это в векторный формат.
09:55
Speaker A
Вот там была вот эта вся там сложная магия векторизации в OpenAI, в чате, ну, API.
10:00
Speaker A
Есть модель эмбеддингов, Embedding Model.
10:03
Speaker A
Что, в принципе, вполне о'кей работает.
10:05
Speaker A
Можете использовать.
10:08
Speaker A
И с помощью косинусной близости делаем ранжирование.
10:12
Speaker A
Всё, что больше 0.89, нам подходит.
10:15
Speaker A
Всё остальное — мусор.
10:17
Speaker A
Вот так это может выглядеть, хоть в Excel-ке можете считать.
10:20
Speaker A
Вот есть главный запрос Car Finance.
10:23
Speaker A
И мы к нему считаем косинусную близость.
10:25
Speaker A
Вот Bad Credit Car Finance, да?
10:27
Speaker A
С плохой кредитной историей.
10:30
Speaker A
Guaranteed Car Finance No Credit Check.
10:32
Speaker A
Тоже довольно близко лежит.
10:35
Speaker A
А вот No Credit Check Car Finance ещё ближе.
10:37
Speaker A
Вот так выглядит.
10:39
Speaker A
У вас есть вполне классное ранжирование.
10:42
Speaker A
Какой результат всего этого?
10:44
Speaker A
Главная сущность, то есть у нас есть фундамент.
10:46
Speaker A
Я дальше буду показывать кейсы по фундаментам, да?
10:48
Speaker A
И мы видим, какие у него атрибуты.
10:51
Speaker A
Есть тип фундамента: ленточный, сплошной, такой-то.
10:53
Speaker A
Материалы фундамента бывают, да?
10:55
Speaker A
Это всё из Knowledge Graph вытягивается.
10:58
Speaker A
Глубина заложения есть.
10:59
Speaker A
Там несущая способность и прочее.
11:01
Speaker A
И вот как фундамент должен быть связан с другими сущностями.
11:05
Speaker A
Фундамент изготавливается из бетона, там, сила связи 10.
11:09
Speaker A
Фундамент поддерживает дом.
11:10
Speaker A
Фундамент зависит от типа грунта.
11:12
Speaker A
Фундамент требует гидроизоляции.
11:14
Speaker A
То есть, видите, примерно на кошечке работает уже совершенно по-другому раскрывается на реальных ключах.
11:19
Speaker A
Дальше.
11:21
Speaker A
Supporting Entity Network — это что? Это сущности, которые лежат как можно ближе к главной сущности.
11:26
Speaker A
А это сущность грунт, дом, климатические условия, там, строительные материалы.
11:30
Speaker A
То есть мы отсюда уже понимаем, что речь идёт о выборе фундамента.
11:34
Speaker A
Даже из этого маленького документа.
11:37
Speaker A
И у каждой сущности есть Relationship Primary.
11:42
Speaker A
То есть грунт влияет на выбор фундамента.
11:45
Speaker A
Мы помним, что фундамент — главная сущность.
11:48
Speaker A
Как это всё автоматизировать?
11:50
Speaker A
Потому что это выглядит сложно, куча математики.
11:53
Speaker A
С помощью AI-агентов.
11:55
Speaker A
AI-агенты, как вообще они могут выглядеть?
11:57
Speaker A
У меня есть отдельная лекция по агентам.
11:59
Speaker A
И вот мы посмотрим только, ну, кусочек этого.
12:02
Speaker A
Это может быть Claude Code.
12:04
Speaker A
Он работает в терминале.
12:06
Speaker A
Либо для кого-то это в консоли, либо в VS Code.
12:09
Speaker A
Выглядит это страшно, как бы, неприятно для юзера.
12:13
Speaker A
Но эта штука рабочая.
12:15
Speaker A
Агент может выглядеть вот так.
12:17
Speaker A
Это может быть, я выкладывал анализатор свежести.
12:20
Speaker A
Это просто веб-ресурс.
12:22
Speaker A
То есть веб-приложение.
12:23
Speaker A
Ты ключ вводишь, вводишь регион, и он тебе показывает, когда контент надо обновлять.
12:26
Speaker A
То есть он может жить просто в виде сайта.
12:29
Speaker A
Telegram-бот, например, у меня есть бот, который читает SEO-шные каналы.
12:32
Speaker A
Делает выжимку, вырезает оттуда рекламу и присылает всё самое интересное по моим критериям.
12:38
Speaker A
Я с утра просыпаюсь и пью уже под кофеёк дайджест.
12:42
Speaker A
Такой AI-агент, он живёт в Telegram.
12:45
Speaker A
Есть SaaS, целая огромная мультиагентная система, как вот, ну, SEO-Agents, например, наш, да?
12:50
Speaker A
Он, кстати, изначально был в первой версии построен как Lovable на фронте и N8N на бэке.
12:56
Speaker A
Сейчас, конечно, там уже посложнее всё стало.
12:58
Speaker A
Но можно делать вот таких агентов, которые как SaaS-сервис полноценные.
13:03
Speaker A
Давайте посмотрим, какая должна быть логика агента.
13:05
Speaker A
Чтобы сделать нормальный аутлайн статьи.
13:09
Speaker A
Что должен сделать SEO-шник?
13:11
Speaker A
Он должен взять топ-10, топ-20 SaaS.
13:14
Speaker A
Выбрать целевых конкурентов.
13:15
Speaker A
А вот дальше вступает в силу агент.
13:17
Speaker A
Как ещё раз объясню подход, да?
13:19
Speaker A
Агент берёт, обходит защиту сайта, вытаскивает оттуда контент, делает экстракцию.
13:24
Speaker A
Извлекает сущности.
13:26
Speaker A
Векторизирует их.
13:27
Speaker A
Считает косинусную близость, чтобы мусор отсеять, и прямо сейчас обсчитываем 600-700 сущностей и оставляем 4-8.
13:32
Speaker A
Всё остальное откидывается, потому что это нерелевантно.
13:34
Speaker A
Зачем кошку с кирпичом продвигать вместе, правильно?
13:38
Speaker A
Ну, анализируются все связи.
13:40
Speaker A
В результате выделяются суб-интенты, я покажу сейчас, как выглядят суб-интенты.
13:44
Speaker A
И ранжирование от простого к сложному.
13:48
Speaker A
Тоже очень важная вещь, чтобы выходить в топ.
13:50
Speaker A
Тоже сейчас расскажу.
13:51
Speaker A
И только потом создание H1, H3 заголовков, структур и распределение ключей.
13:56
Speaker A
Не надо вот здесь где-то ключи обсчитывать, это не работает.
14:00
Speaker A
Пока вы сущности не посчитали, не надо впихивать ключи.
14:04
Speaker A
У нас есть небольшая викторина.
14:06
Speaker A
Что имеет в виду пользователь, который ищет ключевое слово «Как выбрать фундамент для дома»?
14:11
Speaker A
Ну, накидывайте, что есть.
14:12
Speaker B
То есть из чего будет состоять выбор?
14:16
Speaker A
Тип фундамента.
14:17
Speaker B
Выбор.
14:18
Speaker A
Материал.
14:20
Speaker B
Тип дома.
14:21
Speaker B
Стоимость.
14:22
Speaker A
Тип дома.
14:23
Speaker A
Стоимость.
14:24
Speaker A
О'кей.
14:26
Speaker A
На самом деле, да, тип фундамента, нагрузка здания на фундамент.
14:30
Speaker A
Вот у вас векторная машина в голове, ребята.
14:33
Speaker A
Характеристики грунта, климатические условия.
14:36
Speaker A
Как это выглядит, что когда вводишь ключ «Как выбрать фундамент для дома».
14:41
Speaker A
Он извлекает сущности.
14:43
Speaker A
И тут видно, что юзер хочет практическое руководство по выбору фундамента.
14:49
Speaker A
Естественно, он видит вот такие сущности.
14:51
Speaker A
Здесь, кстати, довольно очевидно, это первая наша викторина.
14:54
Speaker A
Ответ Гугла может быть вообще не связан, ну, как бы, лексически.
14:58
Speaker A
То есть по вхождениям с тем, что мы задали.
15:01
Speaker A
Думаю, вот логика понятна.
15:03
Speaker A
Как мы вот у нас делаем, например, да?
15:05
Speaker A
Сейчас наша команда пришла от ключей к сущностям полностью, там, больше 150 человек.
15:10
Speaker A
Мы выбираем регион, язык, локацию, сколько топа проанализировать.
15:15
Speaker A
Потом видим урлы.
15:17
Speaker A
Агент идёт, вытаскивает со всех этих урлов, обходя защиту Cloudflare и прочие капчи, контент.
15:24
Speaker A
Считает среднее, там.
15:26
Speaker A
И в результате вот всё, что я рассказал, он делает.
15:29
Speaker A
Мы получаем такую штуку прикольную.
15:32
Speaker A
Я показывал уже про фундамент.
15:33
Speaker A
Relationship Triplets, ещё мы считаем, как Google, Яндекс считают.
15:37
Speaker A
Какими авторитетными документами надо поддержать эту статью.
15:42
Speaker A
Дальше.
15:44
Speaker A
Это Supporting Entity Network, я уже тоже показывал, просто вам ещё раз подсвечу, что нужно считать.
15:49
Speaker A
И вот тот этап, который мы хотим.
15:51
Speaker A
Ну, почти финальный — это суб-интенты.
15:54
Speaker A
Интент 1: какие бывают виды фундамента?
15:57
Speaker A
Как раз ты сказал, там, по-моему, да, про виды.
16:00
Speaker A
Нет.
16:01
Speaker A
Ты сказал про материал.
16:02
Speaker A
Ты сказал про виды фундамента.
16:04
Speaker A
Да.
16:06
Speaker A
Что необходимо учитывать при выборе фундамента?
16:09
Speaker A
Этих под-интентов в некоторых лонгридах может быть восемь.
16:13
Speaker A
И их всех надо закрыть.
16:15
Speaker A
И в результате мы получаем аутлайн.
16:17
Speaker A
То есть план статьи.
16:19
Speaker A
Это вот эта ТЗ-шечка всего на один из заголовков, которые вот здесь их там дофига.
16:24
Speaker A
Вот я себе вот здесь его уважают.
16:26
Speaker A
Здесь у вас должно быть для копирайтера либо для нейронки.
16:30
Speaker A
Какие сущности покрыть?
16:31
Speaker A
Summary, как именно писать этот абзац, что там указывать.
16:36
Speaker A
Какие визуальные элементы?
16:37
Speaker A
Например, вот для климатических особенностей и глубины промерзания агент предлагает сделать инфографику с картой глубины промерзания грунта в различных регионах России.
16:46
Speaker A
Релевантно, супер-релевантно.
16:48
Speaker A
Полезно, определённо.
16:50
Speaker A
Копирайтеры ещё не умеют работать с сущностями, и поэтому Copywriter Notes отдельно им показывают.
16:54
Speaker A
Как это можно, ну, агент сам даёт инструкцию, как это можно вписать.
16:58
Speaker A
Ну и Entity Connection.
17:00
Speaker A
Как правильно связывать сущности в этом абзаце.
17:03
Speaker A
Вот такие аутлайны, если по ним копирайтер пишет либо нейронка пишет, они залетают.
17:08
Speaker A
Я сейчас покажу, как.
17:10
Speaker A
Но у нас же здесь, я думаю, сидят хитрецы, которые занимаются гемблингом.
17:13
Speaker A
Поэтому ещё одна викторина.
17:16
Speaker A
Что имеет в виду пользователь, который ищет ключевое слово «Best Time to Play Online Slots»?
17:20
Speaker A
Когда лучше играть в онлайн-слоты?
17:22
Speaker A
Как вы думаете?
17:24
Speaker A
Что он ищет по запросу?
17:26
Speaker B
В какое время лучше процент выигрыша?
17:29
Speaker A
Процент выигрыша, возможно, да.
17:30
Speaker A
Ну, в целом, да, но какие там есть под-интенты?
17:32
Speaker A
Что именно?
17:34
Speaker A
Почему он думает, что есть какое-то время, процент выигрыша?
17:37
Speaker B
Счастливые часы.
17:39
Speaker A
Счастливые часы.
17:40
Speaker A
Ещё варианты?
17:41
Speaker B
Когда меньше пользователей.
17:43
Speaker A
Меньше пользователей.
17:45
Speaker A
Хорошо, почти всё отгадали.
17:47
Speaker A
Так вот, первое, он думает, что есть возврат какое-то время, RTP Rate лучше, да?
17:51
Speaker A
Вероятность выигрыша, когда-то есть.
17:53
Speaker A
Активность игроков, пик, офф-пик часы, да?
17:57
Speaker A
И оптимальные какие-то тайминги, когда надо там кликать.
18:00
Speaker A
А сейчас, как это выражается в сущностях?
18:03
Speaker A
То же самое.
18:04
Speaker A
Такой же разбор делается.
18:06
Speaker A
Примерно семантически это диаграмма показала.
18:08
Speaker A
Сейчас покажу, как на самом деле надо написать эту статью.
18:12
Speaker A
То же самое, берём, берём топ по США.
18:14
Speaker A
В новой версии тут уже DR есть и количество доменов, когда ты понимаешь, что вот этот вот сайт Reddit не надо исследовать, он тебе не нужен, например, да?
18:19
Speaker A
Хотя нет, Reddit можно.
18:20
Speaker A
А вот Talksport какой-то, ну, вопрос.
18:23
Speaker A
То есть сейчас агент уже все данные собирает.
18:26
Speaker A
И вот тут главная сущность — это онлайн-слоты.
18:29
Speaker A
И у неё есть главные атрибуты.
18:32
Speaker A
Что она, ну, онлайн-слоты работают с помощью генератора случайных чисел.
18:37
Speaker A
Мы к этому ещё вернёмся.
18:38
Speaker A
Регулируется там гемблинг-комиссиями.
18:40
Speaker A
Доступно 24 часа и так далее.
18:43
Speaker A
И вот тут триплеты есть.
18:45
Speaker A
Онлайн-слоты используют генератор случайных чисел.
18:48
Speaker A
Онлайн-слоты предлагают прогрессивные джекпоты.
18:51
Speaker A
Кстати, это важная штука, оказывается, из-за чего это ищут.
18:55
Speaker A
Я сам не лужу в слоты, поэтому не знал.
18:57
Speaker A
А статью надо было написать.
18:59
Speaker A
Онлайн-слоты оперируют независимо от времени дня.
19:02
Speaker A
То есть, ну, как бы, Google Knowledge Graph знает, как работают слоты.
19:05
Speaker A
И как про них правильно писать.
19:08
Speaker A
А вот Supporting Entity Network.
19:10
Speaker A
Random Number Generator, да?
19:12
Speaker A
То есть генератор случайных чисел — это такая специальная сущность, которую надо в этой статье использовать.
19:17
Speaker A
Дальше.
19:18
Speaker A
Прогрессивные джекпоты.
19:20
Speaker A
Casino Promotions.
19:21
Speaker A
Потому что, оказывается, казино дают в определённые дни скидки, фриспины и прочее.
19:27
Speaker A
И Player Traffic.
19:28
Speaker A
Как раз ты сказал, что от трафика может зависеть.
19:31
Speaker A
Почему-то, да?
19:33
Speaker A
Оказывается, зависит, там есть какие-то джекпоты, это влияет на прогрессивные джекпоты.
19:38
Speaker A
И вот какие есть суб-интенты.
19:41
Speaker A
Интент 1: они хотят понимать, влияет ли время, в которое ты играешь в слот, на доход.
19:47
Speaker A
Лучшее время, чтобы выигрывать прогрессивные джекпоты.
19:50
Speaker A
Я не знаю, что такое прогрессивный джекпот, почему, да?
19:54
Speaker A
Но агент мне сам говорит: посмотри.
19:57
Speaker A
Когда казино дают скидки, всякие фриспины.
20:00
Speaker A
И интент, там ещё есть, ещё несколько интентов.
20:03
Speaker A
Но офф-пик и пик-таймы, да, то есть, когда есть наплыв игроков, когда нет.
20:06
Speaker A
Как вести себя?
20:08
Speaker A
И вот прикольная штука, что он говорит: сделай H2.
20:12
Speaker A
Как слоты, как реально работают онлайн-слоты, горькая правда про генератор случайных чисел.
20:18
Speaker A
Он тут пишет: напиши, что нельзя обмануть генератор случайных чисел.
20:22
Speaker A
Он всегда отдаёт в одно и то же время одинаковые выигрыши.
20:26
Speaker A
То есть семантический анализ даёт тебе понимание, что тебе надо писать.
20:30
Speaker A
Потому что никак запрос «Best Time to Play Online Slots» не связан со словом «генератор случайных чисел».
20:36
Speaker A
Просто вот так вот, ну, по вхождениям.
20:39
Speaker A
Но если ты про это не напишешь, ты не выйдешь в топ, просто.
20:42
Speaker A
Дальше можно сгенерить текст.
20:44
Speaker A
То есть агент может сгенерить текст.
20:45
Speaker A
Как, ну, как мы делаем.
20:47
Speaker A
Можно, кто-то отдаёт копирайтеру.
20:48
Speaker A
Мы там у себя с помощью редакционных политик это генерим.
20:53
Speaker A
И получается вот такая замечательная статья.
20:55
Speaker A
Например, понимание волатильности и возврата денег в слотах.
21:00
Speaker A
То есть нейросеть табличку.
21:02
Speaker A
Потому что, потому что он знает всё, о чём ему надо сгенерить.
21:07
Speaker A
Ещё немножечко про генерацию текстов, ну, наверное, не будем останавливаться.
21:11
Speaker A
Я вам покажу вообще.
21:13
Speaker A
Вообще, кстати, да, вот, вот какой тезис здесь хотел закинуть.
21:17
Speaker A
Почему вам никогда не понравятся тексты, которые вы сгенерите?
21:22
Speaker A
Потому что у нейронки нет редакционной политики.
21:25
Speaker A
Вы не даёте редакционную политику нейронке.
21:28
Speaker A
А о вашей компании, о вашем авторе, о том, какая длина предложения должна быть.
21:35
Speaker A
H2, H3, зачитать с заглавной буквы или с маленькой?
21:39
Speaker A
Кто автор читателю: братан, либо там супер-эксперт, там, авторитетный профессор?
21:43
Speaker A
Сложность текста.
21:45
Speaker A
Поэтому, например, мы используем редакционные политики подробные, чтобы нейронка правильно генерила.
21:50
Speaker A
И плюс, у нас, так как у нас это мультиагентная система, у нас есть агент-фактчекер.
21:55
Speaker A
Он проверяет все факты, которые она нарыла.
21:58
Speaker A
Если он уверен больше, чем, ну, меньше, чем на 85%, он переписывает.
22:02
Speaker A
Вот такая штука.
22:04
Speaker A
А что по галлюцинациям?
22:06
Speaker A
Вот здесь представлена странная, на первый взгляд, табличка.
22:11
Speaker A
С уровнем галлюцинации моделей.
22:13
Speaker A
Если мы видим Claude Sonnet там галлюцинирует там 17%, а Claude Sonnet 4 — 40%.
22:19
Speaker A
Это чистые галлюцинации нейронок.
22:21
Speaker A
Если бы у них не было контекста и RAG-а, то есть Augmented интеллекта.
22:27
Speaker A
А вот данные компании Vectara.
22:30
Speaker A
Vectara — это векторные базы для построения RAG-ов, то есть Retrieval Augmented Generation.
22:35
Speaker A
Генерация с учётом данных по вашей компании, по вашей базе.
22:40
Speaker A
И мы видим, что Gemini уже галлюцинирует, сколько там у нас было?
22:45
Speaker A
38%.
22:46
Speaker A
А если дать правильный контекст?
22:48
Speaker A
1.3%.
22:50
Speaker A
Поэтому, если вы хотите убрать галлюцинации, давайте нейронке максимум информации.
22:55
Speaker A
А лучше используйте RAG-системы.
22:58
Speaker A
На чём построить RAG-систему, можете подойти, я расскажу.
23:01
Speaker A
Какой эффект вообще мы получили?
23:03
Speaker A
Когда внедряли агентов и пришли на семантический поиск.
23:08
Speaker A
То есть создание одной статьи — экономия от 2 до 3 часов.
23:11
Speaker A
Мы не говорим, если мы пишем какие-то говностатьи.
23:14
Speaker A
Которые там 20 минут у тебя есть на ТЗ, и как бы можно забить.
23:18
Speaker A
Дальше, 2-3 часа у SEO-шника экономия на одной статье.
23:21
Speaker A
Оптимизация страницы под GEO.
23:23
Speaker A
Под GEO вам нужно чанками делать вот такими кусками.
23:26
Speaker A
Типа вопрос-ответ, не вопрос-ответ, а такие ёмкие предложения.
23:30
Speaker A
Раньше 2 часа занимало, чтобы GPT тебя индексировал и выдавал в топ.
23:34
Speaker A
Но при этом не сломать логику.
23:37
Speaker A
Поиск упущенных сущностей — около 2 часов.
23:40
Speaker A
И, ну, как бы, экономия сейчас у наших ребят из западных отделов, из русских отделов.
23:45
Speaker A
Раньше у нас в среднем 23% статей залетало в топ в момент индексации, сейчас 48%.
23:51
Speaker A
Вот тут есть примеры ключей.
23:53
Speaker A
На разных языках, да, это на любом языке работает.
23:56
Speaker A
Кроме там зулусского.
23:58
Speaker A
Это аренда машин в Дубае.
24:01
Speaker A
Это на RAG-е, все эти кейсы — это на RAG-е EMD-домены.
24:05
Speaker A
То есть это зарегистрированные домены без истории.
24:08
Speaker A
И в момент индексации они получают вот такие результаты.
24:12
Speaker A
Это аренда в Марракеше на испанском.
24:16
Speaker A
Всё стоит там в топ-10 в момент индексации, просто.
24:19
Speaker A
Потому что семантически правильно сделано.
24:22
Speaker A
Это на испанском тоже Марракеш.
24:24
Speaker A
Тоже три статьи, они сразу лезут в топ.
24:27
Speaker A
Ну, вы знаете, надо добавить ссылочек, ПФ, и можно зарабатывать деньги.
24:31
Speaker A
Что делать с оптимизацией существующих страниц?
24:34
Speaker A
Мы агента дообучили на оптимизации существующих страниц.
24:38
Speaker A
Вы даёте свой урл, даёте конкурентов, он все вот эти вектора считает между топом и вашей страницей.
24:43
Speaker A
И даёт рекомендации.
24:45
Speaker A
Например, здесь он говорит: у нас есть проект по туризму в Антарктиду.
24:49
Speaker A
И тут статья Арктика против Антарктики.
24:52
Speaker A
В чём разница?
24:54
Speaker A
Он говорит: сделай новую секцию.
24:56
Speaker A
Она должна быть H2.
24:58
Speaker A
Поставь её после вот этой секции.
25:00
Speaker A
И вот так вот, как бы, вот тут вот напиши вот это вот так.
25:04
Speaker A
И такие сущности учти.
25:06
Speaker A
Тогда ты конкурента обойдёшь.
25:09
Speaker A
И он тебе даёт экшн-план, типа, что надо сделать.
25:12
Speaker A
Добавить новый H2.
25:14
Speaker A
Expand, он говорит: у тебя фигово вот этот абзац написан.
25:16
Speaker A
Там не хватает сущностей, там не хватает смыслов, там вода.
25:20
Speaker A
Что такое вода?
25:22
Speaker A
Вода — это использовать в вашем контенте слова, сущности и прочее, лежащие далеко от вашей основной темы по Knowledge Graph.
25:29
Speaker A
Вот что такое по-научному вода.
25:32
Speaker A
И он говорит: ещё новый H3 создай.
25:34
Speaker A
Там вот не хватает, типа, про туризм.
25:36
Speaker A
В заполярных регионах.
25:39
Speaker A
И вот у тебя есть план, как по семантическому поиску оптимизировать твою статью.
25:42
Speaker A
Чтобы обойти конкурентов в топе.
25:45
Speaker A
Ну и приоритет там до 0.5.
25:48
Speaker A
Ну, вот мы юзаем, закидываем просто текущую статью.
25:50
Speaker A
Выбираем конкурентов из топа.
25:53
Speaker A
И он сам всё это нарезает, разрезает.
25:56
Speaker A
Кстати, можете протестировать, мы выдадим всем сегодня.
25:59
Speaker A
Бесплатно 15 лимитов.
26:01
Speaker A
Но на самом деле мы решили сегодня с утра, что дадим 30 лимитов каждому.
26:06
Speaker A
Напишите в Telegram, там будет наш официальный аккаунт.
26:10
Speaker A
Напишите, желательно, дайте свою нишу, тогда мы вам дадим рекомендации.
26:14
Speaker A
Как лучше анализировать ваши ниши.
26:17
Speaker A
Кого выбирать, какие редакционные политики делать.
26:19
Speaker A
И ребята-инженеры помогут.
26:21
Speaker A
Кстати, тут у нас несколько инженеров наших есть в зале.
26:24
Speaker A
Можно будет к нам подойти, пообщаться.
26:27
Speaker A
Ну и ещё там на слайдике несколько таких штук.
26:30
Speaker A
Забанят ли вас за AI-контент?
26:33
Speaker A
Вот эти слайды с Чиангмая, 3 недели назад была конференция.
26:37
Speaker A
Это данные ребята из Graphite, погуглите, супер-аналитическое агентство.
26:41
Speaker A
И сейчас все эти показывают этот график.
26:44
Speaker A
Что AI-контента стало больше, чем живого контента.
26:48
Speaker A
Вот в 22 году GPT-шечка запустилась нормально, да?
26:50
Speaker A
Это 25 год.
26:52
Speaker A
То есть тут драматически количество выросло.
26:55
Speaker A
То есть сейчас в целом количество AI-контента уже превышает человеческий контент.
26:59
Speaker A
Люди не хотят писать.
27:01
Speaker A
Многие слышали про Brain Rot, что типа загнивание мозгов.
27:05
Speaker A
Что модели будут обучаться на моделях.
27:08
Speaker A
Об этом можно говорить отдельно целый доклад.
27:11
Speaker A
Вот, и почему Google борется с AI-контентом?
27:15
Speaker A
Только по причине того, чтобы не обучать свою модель на второсортном контенте, который был сгенерирован.
27:20
Speaker A
Это единственная причина.
27:22
Speaker A
Сколько же контента в топе?
27:24
Speaker A
Его много, как никогда.
27:26
Speaker A
Это данные Originality.
27:28
Speaker A
Кстати, презентацию я дам, там будет нормально видно, контрастно, на самом деле.
27:33
Speaker A
Проект так показывает.
27:35
Speaker A
Это Google мартовский апдейт 24 года.
27:38
Speaker A
Несмотря на это, контент в топ залетает массово.
27:42
Speaker A
Почему? Потому что появились вот, ну, как бы, различные методики генерации.
27:46
Speaker A
Которые, ну, практически не отличить.
27:49
Speaker A
Тоже Originality дали стату.
27:51
Speaker A
Вот эту дисперсию попадания в топ.
27:55
Speaker A
С 24 года количество AI-контента в топе, где вот это с блендингом, попадание на этот топ-10, да?
28:00
Speaker A
Драматически выросло.
28:02
Speaker A
То есть говорить о том, что не работает AI-контент.
28:04
Speaker A
Нельзя.
28:06
Speaker A
Почему один контент в топе, а один нет?
28:09
Speaker A
Это Surfer SEO на 10 миллионах ключей исследования, они выкачали все сайты в этом году.
28:16
Speaker A
И распределили по факторам, какие факторы больше всего влияют.
28:20
Speaker A
Самый неважный фактор — вхождение ключевых слов.
28:24
Speaker A
На выборке 10 миллионов.
28:26
Speaker A
Неважно вообще.
28:28
Speaker A
Самый важный фактор — Topical Coverage.
28:30
Speaker A
Раскрытие интентов пользователей.
28:33
Speaker A
Рецепт идеального текста, можете себе сфоткать.
28:36
Speaker A
Покрыты все интенты.
28:38
Speaker A
Сущности правильно расставлены.
28:41
Speaker A
Они с достаточной детализацией раскрыты.
28:44
Speaker A
В статье нет воды, слишком далеко лежащих терминов.
28:47
Speaker A
Проведён фактчекинг.
28:49
Speaker A
Мы суб-агенты используем.
28:52
Speaker A
Архитектура сделана от простого к сложному.
28:54
Speaker A
Не наоборот, не надо про фундаменты.
28:56
Speaker A
Арматуру М300 там писать в начале.
29:00
Speaker A
Напишите логику выбора фундамента.
29:02
Speaker A
Дайте человеку почитать сверху вниз, чтобы ещё поведенческие были хорошие.
29:07
Speaker A
Ответ на основной интент на первом экране.
29:10
Speaker A
До сгиба экрана.
29:13
Speaker A
Выбрана правильная модель.
29:15
Speaker A
Gemini использовать нельзя, он, насколько вы знаете, вас забанит Google.
29:20
Speaker A
И в ChatGPT.
29:22
Speaker A
То же самое, Topical Coverage — самый главный фактор.
29:25
Speaker A
Все те же факторы работают.
29:27
Speaker A
Что и для обычного текста, но.
29:30
Speaker A
Всё важное внутри первых 1500 слов.
29:34
Speaker A
Дальше ChatGPT не индексирует, не читает текст.
29:37
Speaker A
И важность упоминания на других ресурсах.
29:41
Speaker A
Вот у меня последний слайд есть для вас.
29:43
Speaker A
Это исследование Ahrefs.
29:46
Speaker A
Тоже этого года с конференции в Чиангмае.
29:49
Speaker A
Самый важный фактор — это когда на других ресурсах ваш бренд упоминается.
29:53
Speaker A
Желательно в положительных коннотациях.
29:56
Speaker A
И брендовые анкоры, брендовый Search Volume.
29:59
Speaker A
Всё.
30:01
Speaker A
Семантик, SEO-статьи, плюс упоминания, вы молодцы.
30:06
Speaker A
Вот.
30:08
Speaker A
У меня на этом всё.
30:11
Speaker A
Можно подписаться на мой Telegram.
30:13
Speaker A
И вот мой личный Telegram.

Get More with the Söz AI App

Transcribe recordings, audio files, and YouTube videos — with AI summaries, speaker detection, and unlimited transcriptions.

Or transcribe another YouTube video here →