На фоне хайпа ChatGPT существует множество панических настроений: люди творческих и компьютерных профессий готовятся идти на завод. В противовес им есть немалая доля скептиков, переживших уже не одну волну хайпа различных тем и уверенных в том, что популярность ChatGPT также вскоре сойдёт на нет, и в их работе и жизни всё останется практически без изменений. И люди по-прежнему продолжат пользоваться привычными нейросетями — т.е. поисковыми системами и любимыми социалками. А тем временем свет увидела новая модель модель GPT-4, умеющая снабжать текст ответа иллюстрациями, а также способная распознать, что именно изображено на картинке, прочитать схему, объяснить график.

Напомню, ChatGPT (Chat Generative Pre-trained Transformer) — это интерфейс к нейронной сети в виде чата. Нейросеть может давать связанный и полный ответ на заданный вопрос в виде статьи (GPT-4 — с изображениями). А также в ходе одной беседы нейросеть учитывает контекст: можно уточнять отдельные моменты вопроса или просить дополнить ответ. Кроме ответов на вопросы, можно заказывать нейросети любые тексты: SEO-статьи, презентации, описания товаров и т.д.

Кстати, хотел себе покупать новый телефон в замен старому Redmi4X, батарея которого начала распухать. Но на фоне этих новостей решил пока притормозить с дорогостоящей покупкой и просто заменить батарею.

замена батареи в телефоне

Кстати, для замены батареи можно обратиться в сервисный центр ИТСА, контакты которого указаны здесь — на официальном сайте сервисного центра. Также тут могут отремонтировать или провести апгрейд ноутбуку, а сэкономленные на покупке новых девайсов деньги разумнее пока сложить в финансовую подушку безопасности.

Стоит отметить основные претензии к ChatGPT:

  • Нейросеть не обучается в режиме реального времени (по крайней мере, пока): в неё загружен блок информации определённой давности (например, в GPT-3 — до 2021 года). GPT не имеет актуальных данных о последних событиях.
  • GPT не понимает то, что пишет, а подбирает подходящий вариант текста, в соответствии со своими алгоритмами. Т.е., может выдать фэйк — к результату работы GPT не надо относиться, как истине в последней инстанции.
  • GPT обучается на данных, опубликованных людьми, и заимствует ошибки авторов. Потому может внезапно вернуть давно разоблачённое и забытое заблуждение.
  • GPT также может выдавать «выдуманную» информацию — это всё же нейросеть, а не миксер контента. Не стоит полагаться на её «советы», не будучи специалистом в сфере запроса.
  • Лучше всего GPT понимает английский. Запросы на других языках похожи на то, что чат себе автопереводит запрос на английский, генерирует ответ, автопереводит обратно на язык запроса и возвращает.

А теперь к вопросу поста. Вряд ли можно дать однозначный ответ, многое зависит от опыта и навыков конкретного сеошника. Есть самоназванные «сеошники», которые единственное что умеют — это писать и публиковать тексты на сайте по предоставленной заказчиком фактуре под заданные заказчиком поисковые запросы. — Таким явно не место в современном мире. Удивляюсь, как они работу до сих пор находили.

Ну а тру-сеошникам должно стать даже проще: можно не платить дорого и не ждать долго текстов от копирайтеров, можно генерировать самому при помощи GPT или нанять одного человека, который будет получать от GPT тексты и передавать сеошнику. Как обычно, использующие новые технологии специалисты получат преимущество над староверами, получат больше заказов и дохода. Но GPT — это доступная всем технология в конкурентной сфере. А значит, все специалисты находятся в равных условиях, шероховатости создаёт только новизна, и победит в итоге обычный тренд: способные к обучению специалисты продолжат работать, неспособные уйдут на пенсию.

Запись опубликована 17 марта 2023 года. Предыдущие посты рубрики «В наше время»:

Подписка на RSS канал блога RSS подписка (как это?) поможет вам не пропустить ничего интересного на этом блоге.