Довольно часто пишут мне с вопросом по поводу того, как поисковики относятся к ИИ текстам. Их очень легко определяют ИИ детекторы всевозможные, значит у поисковиков ещё более развитая система, и они понимают, где сгенеренный текст, а где нет. Поэтому статьи говно. Я на это отвечаю, что понятное дело, что поисковики могут понимать, где сгенеренный текст, а где нет, но при этом все же зависит от того, как вы генерируете текст, насколько он полезен и от этого нужно плясать, а не от того, что если текст по умолчанию ИИ, то значит он не будет ранжироваться. И вот на одном из каналов сеошных вышел пост , где рассказывается, что прогнали через такой ИИ детектор текст Нового завета, и он определился, как на 98% сгенеренный компьютером. Что, соответственно, опровергает факт того, что ИИ детекторы просто мега крутые, они определяют очень хорошо ИИ контент и скрыться от них невозможно. Вот вам пример яркий: текст написан как минимум человеком, а как максимум Богом, а соответственно никакой нейросеткой, но ИИ детектор определяет как будто бы это ИИ контент. Что мы с этим делаем, как быть с этой информацией? Решайте сами, но мне кажется не стоит пугаться сильно текстов, сгенеренных нейросеткой, их можно использовать, потому что ИИ детекторы ошибаются, поисковые системы ошибаются, даже если они не ошибаются, то это не значит, что ваш текст, сгенеренной нейросеткой, будет зафильтрован. Надеюсь доходчиво объяснил.
Hide player controls
Hide resume playing