У дома Отзиви Преглед и оценка на Deepcrawl

Преглед и оценка на Deepcrawl

Съдържание:

Видео: DeepCrawl HD (Октомври 2024)

Видео: DeepCrawl HD (Октомври 2024)
Anonim

DeepCrawl малко повиши цената си, откакто я разгледахме. Инструментът започва от $ 89 на месец, таксуван месец на месец; $ 81, 50 при таксуване годишно). Това е с около 10 долара повече, отколкото струваше по-рано, така че не би трябвало да е проблем за повечето клиенти на инструменти за оптимизация на търсачки (SEO). Това, което може да ви хвърли, е фокусът върху дизайна му: този инструмент е предназначен само за едно и единствено нещо: обход на уебсайта отгоре-надолу. SEO инструментите обикновено могат да бъдат групирани в три основни категории. Първо има ad hoc проучване на ключови думи, което ви помага да намерите най-подходящите страници за търсене на съдържанието си, за да се класирате по-високо. На следващо място, непрекъснат мониторинг на позициите, който е начинът, по който следите позициите си в търсенето, за да идентифицирате къде печелите и губите. И накрая, има обхождане, при което уеб ботовете анализират или един уебсайт, или системно обхождат и индексират целия интернет. DeepCrawl не прави обхождания в интернет, но това ще даде на уебсайта Ви толкова обширно SEO "пълно сканиране на тялото", колкото можете да получите.

Този вид обхождане на дълбоки сайтове е полезен за бизнеса по много начини. DeepCrawl е инструмент както за начинаещи потребители, които искат да подчертаят проблемите на сайта, така и за напреднали потребители, персонализиращи своите обхождания, но без ограничения за достъп до данни. Освен това обхождането улеснява мониторинга на здравето на сайта както в реално време, така и в исторически контекст, като дава възможност на бизнеса да сравнява обхожданията през годината и да проучва различни тенденции и видове отчети. Обикновено трябва да използвате комбинация от множество инструменти в трите категории SEO за най-ефективната стратегия, а роботите на сайта са как да идентифицирате силните и слабите страни на вашия собствен уебсайт и целеви страници.

SEO инструменти за избор на редактори Moz Pro, SpyFu и AWR Cloud имат далеч по-голяма дълбочина на наблюдение на ключови думи и позиции, но нямат почти възможност за обхождане и одит на сайта. Така например, ако сте използвали някой от инструментите за избор на редактора или специфичен за ключовите думи продукт като KWFinder.com, за да идентифицирате страница с резултати от търсачките (SERP) и да намерите място, подходящо за класирането на съдържанието ви, ще стартирате сканиране на DeepCrawl на архитектурата на вашия сайт, за да генерира разбивки на страниците и да идентифицира специфичните проблеми с SEO, които вашият сайт трябва да подобри и разреши за класирането на тази страница. Същото важи и за това да разберете защо съдържанието ви губи място в класирането за търсене като проследявано в инструмент за мониторинг като AWR Cloud или извършване на анализ на основни причини за това, защо вашият сайт е бил ударен с наказание за търсене в Google и как можете да се възстановите. Рано или късно SEO стратегия винаги се връща към одита на вашия собствен сайт. Това е единствената работа на DeepCrawl.

Цени и планове

Както бе посочено, DeepCrawl започва от $ 81, 50 на месец, таксувани ежегодно ($ 89 на месец) за своя стартов план, който се предлага със 100 000 активни URL адреси, пет активни проекта, плюс пълен достъп до интерфейс за програмиране на интерфейс (API). Повечето SEO инструменти резервират достъп до API за корпоративни нива, което е категоричен плюс за потребителите на DeepCrawl, които искат по-задълбочена персонализация, без ценовата цена на предприятието.

Друга промяна, която се случи след последния преглед на инструмента, е, че компанията е отстранила своите други ценови планове. За тези, които искат да се регистрират онлайн за услугата, има стартов план и това е всичко. По-разширените функции и увеличените възможности за услуги вече са достъпни само в един друг вид план: Корпоративен план. Тук няма много подробности, освен ценообразуването на „Bespoke“, което предполагаме, че означава обаждане до представител на компанията, за да могат те да приспособят план за обслужване и цени според вашите нужди.

Обхождане на уебсайтове

Процесът на обхождане на сайта в DeepCrawl започва с бърза настройка в четири стъпки. Във всеки един обход можете да включите до пет източника, Sitemap, уебсайтове, анализи, връзки и списъци с URL адреси. Идеята е да се улесни идентифицирането на пропуски в архитектурата на вашия сайт, с конкретни показатели, които няма да намерите в други инструменти за обхождане, като например осиротели страници, които привличат трафик. DeepCrawl е създаден, за да предостави на потребителите пълен преглед на техническото състояние на уебсайта им, с приложими данни и информация за повишаване на SEO видимостта и превръщане на органичния трафик в приходи.

Когато се регистрирате за безплатна пробна версия на DeepCrawl, интерфейсът първо ще ви отведе до таблото за управление на проекта. За да настроя моя проект за PCMag Test, аз въведех PCMag.com като основен домейн. Втора стъпка е да изберете източници на данни за обхождането, които включват самия уебсайт, Sitemap на PCMag и анализи, до които можете да получите достъп с активен акаунт в Google Analytics. Можете също така да добавите конкретни параметри за връщане и URL адреси в домейна (например, ако сте идентифицирали целеви страници в инструмент за изследване на ключови думи), като качвате CSV файлове на конкретни връзки или списъци с URL адреси. Има и изскачащо поле в долната част на страницата, за да гледате видео урок как да настроите проекти и обхождания на DeepCrawl.

Стъпка трета ви позволява да настроите параметрите за самото обхождане. Успях да превключвам скоростта на обхождане до където и да е от един до 50 URL адреса в секунда. Оттам имах възможността да настроя колко „нива на обхождане“ в дълбочина сканирането трябва да премине от началната страница на PCMag и да задам максималния брой URL адреси, при които обхождането трябва да спре. Моят безплатен пробен период беше за план Starter, така че URL адресите ми бяха ограничени до 100 000. Последната стъпка е да определите дали това ще бъде еднократно или повтарящо се обхождане, което може да бъде почасово, ежедневно, седмично, двуседмично, месечно или тримесечно, с възможност за задаване на начално и крайно време за обхождането.

Това е важна функция, която трябва да зададете, ако се нуждаете от редовни одити на сайта, но внимавайте с ограниченията на URL адресите си, в зависимост от това кой план изберете. Има и по-разширени настройки за по-дълбоки ограничения за обхождане, изключени URL адреси, пренаписване на URL адреси и обратно извикване на API, но нетехнически потребител на SEO не е задължително да влиза в тях. Оттам кликнах върху Старт на обхождането и получих имейл няколко минути по-късно, когато обхождането приключи.

В завършеното табло за обхождане веднага се сблъсквате със стена с информация. Ако знаете какво търсите, тогава в горната част има двойни ленти за търсене, за да намерите конкретен URL адрес или да намерите отчета за определена област от архитектурата на сайта; това може да бъде всичко - от съдържанието на тялото и социалните маркери до неуспешните URL адреси и пренасочванията към уебсайтове. Като цяло DeepCrawl пусна 175 доклада на моите URL адреси - които в безплатната пробна версия се оказаха ограничени до малко над 10 000 - и откриха 30 проблема с сайта и обхождаха шест "нива" или връзки дълбоко от началната страница.

Главната страница на таблото за управление предоставя разбивка на списъка на всички текущи проблеми на сайта, от които можете да разгледате конкретните URL адреси, където DeepCrawl ще подчертае грешките на страницата като дублирано съдържание, счупени страници, излишни връзки или страници със заглавия, описание и метаданни, нуждаещи се от SEO подобрение. До този списък открих интерактивна разбивка на страници с пай диаграма на най-разпространените проблеми сред 10 000+ обходени страници.

DeepCrawl също така актуализира потребителския си интерфейс (UI) от първоначалния ни преглед, като добави галери през всяка страница, за да улесни навигацията в други части на платформата и добави раздел на таблото за оценка на всички работещи обхождания на едно място. За моя домейн открих, че въпреки че нямаше големи проблеми с 49 процента от моите страници (повечето от тях са „първични“ страници), 30 процента от моите страници под повърхността се справят с 5xx сървърни грешки, пет процента от страниците имат неуспешни URL адреси и 16 процента от страниците са „неиндексируеми“. Според DeepCrawl 5xx грешки вероятно са възникнали поради блокиращите аспекти на обхода на сайта на PCMag или поради прекалено бързо обхождане на сървъра. DeepCrawl също изясни, че страниците, маркирани като първични, не са непременно безпроблемни и все още могат да бъдат преглеждани, за да включват липсващи страници, да изключват страници с ниска стойност и да се анотират с препоръки на страница на SEO.

Някои от другите инструменти за обхождане, които тествах, включително Ahrefs и Majestic, също ви дават този вид разбивка, включително основни проблеми на сайта, както и индексиране на обратната връзка, което означава входящите хипервръзки от други сайтове към вашите. Това, което другите не правят, е да се задълбочим по-дълбоко до момента, който прави DeepCrawl, особено с разбивки като страниците, които са защитени с по-защитен HTTPS протокол за разлика от HTTP, нещо, което алгоритъмът на Google взема предвид при класирането на страниците.

DeepCrawl ви дава и интегриращи групиране на страници (които можете да намерите в разширени настройки при настройване на обхождане), което означава, че извадката ви се основава на процент от страници, а не на брой. Групирането на страници по този начин е важно, тъй като ви дава последователно вземане на проби в обхожданията. Мислете за това като за научен експеримент: ако сте уебсайт за електронна търговия обхождате 20 процента от страниците си с продукти, при следващото обхождане Deepcrawl ще сканира същите 20 процента за страници, които са добавени, премахнати, липсващи или променени в рамките на всеки доклад. Това също намалява времето и разходите за обхождане, тъй като насочвате обхождането към конкретния подмножество от страници, от които се интересувате.

По подобен начин персонализираните екстракции на DeepCrawl могат да се използват за включване или изключване на параметрите по ваш избор. Това е по-усъвършенствана функция, предназначена за по-специализирано обхождане, за да се насочи във фокусните ви зони. Компанията също така е добавила Preset Custom Extractions за нетехнически потребители, тъй като писането на персонализирани извличания изисква познаване на езика на регулярните изрази (Regex).

Разширено отчитане

Освен GSC интеграцията, най-забележителните подобрения на DeepCrawl са в неговите възможности за отчитане, за които DeepCrawl добави 75 нови отчета през последната година. Отвъд основните положения - споделяне и експортиране на отчети или добавяне на задача за този отчет - можете да щракнете върху бутона Споделяне, за да получите споделена връзка към него. След това можете да изпратите отчета по имейл до всеки брой получатели. Можете също да изтеглите отчета като CSV файл или XML карта на сайта и да персонализирате отчети с персонализирана марка.

Функцията, базирана на задачите, е особено полезна. DeepCrawl ми позволи да добавя задача за конкретни отчети - в случая списъка с 5xx грешки в сървъра - да предприема действия по тази SEO уязвимост. DeepCrawl ви позволява не само да планирате и персонализирате обхождания, но с помощта на диспечера на задачите можете да проследявате напредъка и да управлявате работните процеси по проблемите и сроковете. Маркировката на добър инструмент е тази, която не само открива проблем или възможност, но ви помага да действате по с насочени препоръки. Дадоха ми възможност за задаване на отворена или фиксирана задача; посочете нисък, среден, висок или критичен приоритет; задайте краен срок и задайте тази задача на конкретни лица от моя екип. DeepCrawl ми даде осезаем път към решаването на проблеми със SEO с моя сайт. Само насочените препоръки на SpyFu и KWFinder.com предоставиха същата способност да действат при отчитане на SEO и никой от другите обхождания не включваше този вид функция за действие, базирана на задачи.

DeepCrawl подобри лявата лента за търсене на навигация, за да намира отчети и с ключови думи (дори ако ключовите думи не се показват в действителното заглавие на отчетите) и филтрира отчетите по всеки подходящ URL или метричен линк. Съществуват и редица нови визуализации на данни на екраните на отчетите и категориите, включително графики за разбивка, свързани графики, нови тенденционни графики и UX подобрения, като превъртане и превключване на графика, както и интерактивни обяснения на конкретни показатели, появяващи се в дадена графика. Потребителският интерфейс на таблото за отчети също е гъвкав, което означава, че можете да влачите и изтегляте отчетите, които искате да покажете.

Кликването върху всеки URL адрес във всеки отчет ви дава подробни показатели на страница. Във всичките си отчети по URL, DeepCrawl използва персонализиран показател, наречен DeepRank, който измерва "вътрешната тежест" на връзка, изчислена подобно на алгоритъма на PageRank на Google. Това е показателят за авторитет на URL на DeepCrawl в скала от 0 до 10, показващ най-важните Ви URL адреси или тези, които се нуждаят от най-голямо подобрение. И така, докато началната и горните страници на PCMag бяха класирани в диапазона 8-10, някои страници, натоварени с издания, бяха оставени с DeepRank близо до нула.

В допълнение към синхронизирането с Google Analytics, DeepCrawl включва и раздел от данни, разграждащи десктоп и мобилни страници не само за отзивчив уеб дизайн, но и всички мобилни конфигурации, включително отделни страници за мобилни и десктоп, динамични страници и AMP страници. Тези видове ключови разбивки за мобилни устройства могат да се намерят и в SpyFu и SEMrush, но не до дълбочината на показателите на DeepCrawl, а не в никой от другите тествани от инструмента за проследяване на обхождащи и обратни връзки, които тествах, включително LinkResearchTools.

Най-голямата актуализация на възможностите на DeepCrawl от първоначалния ни преглед е интеграция с Google Search Console (GSC) и още по-напреднала потребителска работа (UX) и показатели за ефективност на сайта. Интеграцията ви позволява да свържете съществуващите проучвания за ефективността на DeepCrawl на сайта с информация за органично търсене от отчета на Google Анализ за търсене на GSC. Като добави свойството на Search Console като източник на URL адрес в настройките си за обхождане, DeepCrawl вече е в състояние да осигури импресия, кликване, честота на кликване (CTR) и средни показатели за позиция за всяка индексирана страница, която се показва в резултатите от търсенето. Отчетът на Google Анализ за търсене идва с ограничение от 1000 URL адреса в GSC интерфейса, но достъпът до него чрез DeepCrawl ви заобикаля.

Други SEO инструменти като SEMrush и Majestic също се интегрират с Google Search Console, но интеграцията на DeepCrawl е единствената сред инструментите, които сме тествали, за да използваме това, за да предоставим специфични за устройството SERP показатели. Чрез интеграцията DeepCrawl пусна 10 нови отчета, две нови графики и по-дълбоки сравнения на десктоп / мобилни устройства / таблети. Разбивки и сравнения на устройството сега привличат данни от GSC за всяка страна поотделно, импресии при търсене и ефективност за страници, които могат да бъдат индексируеми и не са индексируеми, обхождат страници, получаващи трафик от търсене на изображения и показатели на страниците на AMP на Google.

Една уникална функция тук е мярка за мобилни / AMP страници, получаващи трафик на работния плот и обратно, което означава, че DeepCrawl ще покаже дали вашите страници се класират на грешно устройство. Това означава, че DeepCrawl обхожда всички отделни мобилни или AMP URL адреси, за да подчертае разликите и несъответствията между настолното и мобилното съдържание. Отчетите проверяват дали всички страници с висока стойност съществуват на мобилни устройства.

DeepCrawl също предоставя данни за социално маркиране, като страниците с валидни Twitter карти, както и раздел, който просто показва ефективността на страницата по отношение на времето за зареждане или времето, необходимо за "извличане" на страница. И накрая, инструментът предоставя отчети за миграцията на уебсайтове, за да анализира уебсайтове на живо и поставянето им по време на миграция и да отчита конкретно на HTTP и HTTP страниците. Това са показатели, които ще намерите в инструментите за мониторинг на уебсайтове, но по отношение на SEO, той може да бъде полезен просто в идентифицирането на страници, където UX е лошо и осигуряването на плавни миграции на уебсайтове.

Под микроскоп за обхождане на сайта

DeepCrawl е най-добрият инструмент за обхождане, който тествахме с голям запас. Тя осигурява най-голяма дълбочина на сканиране на домейни и SEO отчитане с изключително подробни данни и показатели, които за SEO новак могат да бъдат честни. Голяма част от картографирането на архитектурата на сайта и анализа на домейните, които предоставя, е може би по-подходящо за разработчици и ИТ. PCMag не преглежда бета функции, но DeepCrawl също тества експериментален режим на Explorer Explorer, който ви позволява визуално да изследвате архитектурата на сайта.

Както при доминирането на KWFinder.com в специалните изследвания на ключови думи, лазерният фокус на DeepCrawl върху пълзенето е едновременно благословията и проклятието му. Този тесен обхват на функционалността му не позволява DeepCrawl да спечели избора на редактор заедно с по-пълноценните SEO платформи Moz Pro и SpyFu. Но по отношение на самостоятелните възможности за обхождане за сканиране на вашия уебсайт или сайтовете на вашите конкуренти отгоре надолу, DeepCrawl е мощен SEO микроскоп.

Преглед и оценка на Deepcrawl