унікальність контентуВсім привіт!

Пам’ятаю, коли я 6 років тому починав працювати контент-менеджером, про унікальніть контенту говорили всі.

В той час унікальність контенту перевіряли виключно програмою Advego Plagiatys.

Показник 98% був обов’язковою вимогою для копірайтерів.

Чи лишився цей показник таким важливим?

Чи варто заставляти копірайтерів шукати синоніми, ламати конструкцію речень, щоб зробити текст унікальним на 98%?

Що таке унікальний контент та з чого все почалось?

Як завжди все почалось з Google =)

Алгоритм Google Panda, який був розроблений для боротьби з веб-спамом, посіяв массову паніку та помішаність на унікальних текстах.

До алгоритму, релевантність вимірювалась кількістю ключових слів на сторінці. Тобто, можна було вкрасти текст, напічкати ключовими словами ще більше, та обігнати того, в кого цей текст було вкрадено. Але тепер, SEO це далеко не тільки ключові слова в документі.

Унікальність тексту перевіряється шляхом аналізу фрагментів тексту (шинглів) в пошуковій системі.

Що таке шингл?

Поясню на прикладі. Розділимо попереднє речення на шингли:

  1. унікальність тексту перевіряється;
  2. тексту перевіряється шляхом;
  3. перевіряється шляхом аналізу;
  4. шляхом аналізу фрагментів;
  5. аналізу фрагментів тексту;
  6. фрагментів тексту (шинглів);
  7. тексту (шинглів) в;
  8. (шинглів) в пошуковій системі.

В даному реченні з 10 слів продемонстрований шингл в 3 слова. Тобто в цьому реченні є 8 шингли. Кожен з шинглів вбивається в пошукову систему. Якщо знайдено точне співпадіння – ця частина тексту тексту вважається не унікальною.

Це якщо на хлопський розум.

Чи є така метрика вкрай важливою? Як на мене не зовсім.

Що робити з унікальністю зараз?

Унікальність тексту й надалі впливає на його позиції. Ае це не значить, що чим вища унікальність – тим вище позиція.

Для себе я вивів такий показник, як унікальність змісту!

В першу чергу, ваші статті та тексти повинні бути унікальними за цим показником.

Перевірити його ніяк не можна. Це будеш знати тільки ти – і не потрібно собі брехати.

Часто копірайтери роблять так:

  • читають 3-4 статті з різних джерел;
  • переварюють прочитане;
  • видають текст (не унікальний по змісту).

Цікавий факт #1: В google вже працює алгоритм штучний інтелект RankBrain. Це без жартів. Штучний інтелект оцінює тексти (і не тільки) на наших сайтах.

В такому розвитку подій, я впевнений, що саме змістовна унікальність тексту буде мати величезне значення вже через рік-два.

Цікавий факт #2: Під час зустрічі з веб-майстрами Джон Мюллер підтвердив такий факт: “Якщо дуже трастовий ресурс вкраде контент з менш відомого ресурсу, то він може ранжуватись з цим контентом вище, та навіть може бути вивзнаний автором”.

Цікавий факт #3: Я зустрічав в інтернеті навіть цілий “мануал по аробітку на копіпейст сайтах”, що базується на схожому принципі.

То що роботи з унікальністю контенту

  • Досі необхідно особливо сильно пильнувати контент на сторінках під комерційні запити.
  • Якщо на сторінки унікальність нижче 70% – переписувати.
  • Для інформаційних ресурсів (чи інформаційних розділів комерційних сайтів) створювати унікальний за змістом контент.
  • Час від часу перевіряти унікальність, та скаржитись на зловмисників, що покрали ваш контент (google spam report у допомогу)

Особисто я не пильную та не перевіряю контент на унікальність перед його публікацією. Чому? Бо завжди видаю інформацію зі своєї голови.

Нехай щастить в розкрутці ваших сайтів. А контент завжди буде цікавим, корисним та унікальним!