ScrapeBox Guide — White Hat SEO | Powered by Search

«белое» комментирование блогов

Хотя ScrapeBox печально известен функцией автоматического комментирования блога, он невероятно полезен для «белого» комментирования. Вы можете использовать ScrapeBox, чтобы быстро найти множество авторитетных, нацеленных на нишу страниц, которые можно вручную комментировать.

Сначала введите один из этих примеров футпринтов (их существуют сотни) для того, чтобы найти страницы, которые позволяют комментировать блог в ScrapeBox harvester:

105 «you must be logged in to comment» (Это хорошо, потому что сайты, требующие авторизации, как правило, не заспамлены)

105 «post a comment»


 «post new comment»


Затем введите несколько нишевых ключевых слов в поле для ключевого слова.


1: how to find long tail keywords

If you are in need of generating industry related ideas for your marketing plan and content strategy, you can easily accomplish this with ScrapeBox in a matter of minutes (compared to hours of work the


 manual way). Here’s how it’s done in minutes:

11: page scanner / categorizer

This is a neat feature that many may not be aware of. As with everything else, the power of ScrapeBox is in the addons. Like usual, install it and once that is ready – launch it!

Now, what the page scanner does – is that it lets you analyze the HTML source code of a particular URL and then categorize that URL based off of your own custom footprints…. very cool. Think of the possibilities here… Let’s dig deeper.  Below you see a screenshot of the addon window.

Page Scanner Addon

  1. The very first thing you want to do is import your list of URLs to scan. For this example, I will use a well known WordPress blog (added through the “Load urls from” button above).
  2. Next, you want to edit your own custom footprint (the edit footprints button above). That will look something like the following screen:

Page Scanner Module

Once you have your footprints done and your URLs ready to go, you will want to begin the process of actually scanning the pages. This is how that will look:

Page Scanner Module

With that all setup, you are now ready to begin and start categorizing your websites. Think really hard about how you could use this to your advantage…..

12: link extractor

For the “xxxx-th” time: again if you don’t have this addon installed, you will want to hover over the addons tab along the top bar of the software, and then select “show available addons” – followed by installing the Link Extractor module.

13: competition finder

Everyone wants to find out what their competition is doing…………..RIGHT?? Of course I’m right. You have the ability to do some competitor research with ScrapeBox. It’s by no means a be-all-end-all kind of research, but it IS there so you might as well take a look at it.

What this does, is that it pulls the number of results that come up in Google for a particular keyword. Everyone knows this number is not accurate (especially when you browse to the end pages of the SERPs and find out that the real number is actually a lot smaller), however for a general overview of the landscape, it’s a great way to become familiar with the industry you are tackling. To start, you want to:

  1. Enter the keywords you want to search for (this can be done with a text list)
  2. Click Start!

See the picture below:

Competition Finder

With the results finished, you will have a list of the results returned for every keyword. Do other tools do this job? Yes they do. Now you have another option should one of your tools no longer work.

14: cache extractor

Everyone likes to know when their pages were last cached in Google’s database right? All repeat after me….. YEEESSSS. Ok great! So how would like it if you knew when all of your pages were last cached? You could export the results and save them into an Excel spreadsheet (or OpenOffice) – and sort the data to see which pages on your site were having issues being cached lately?

You’ll need the addon installed obviously, so once you install it from within Scrapebox – open it up and you will see a window like so:

Cache Extractor

I loaded up a text file with a couple of websites, and this is what appears after the Cache Extractor completes its work:

Cache Extractor

With the ability to export the results as:

…. your reporting options are great!

With this data available, you are now able to focus on the parts of your website that seem to be slow in getting regularly cached.

15: fake page rank checker

When considering the fact that your outreach campaigns take a lot of time to manage – and that the value/message of your contact with random website owners has to be right on target, the last thing you need happening is to get burned on the fact that the pagerank of “said” site is a fake.

Granted I could really care less about PR in today’s SEO market (compared with 2003) – however it is still a general rule of thumb for a website’s showing in the industry. I personally use other metrics for judging a site’s worth, but PR still has to be considered into the mix for complete-ness sake.

Anyways, here is how you look at page rank issues with ScrapeBox:

Fake PR Checker

As most addons go with this tool – you can load up your information from the included options – I always use a text file myself, but each to their own. With your URLs loaded up, your screen will now appear like so:

Fake Pagerank Checker

All that is required now is to click “Start”. Of course the next screen will now look like:

Fake PR Checker Results

17: domain name checker

The domain name lookup feature is very useful and it is much easier than typing one name after another into GoDaddy’s URL finder (for 40 minutes) – because we all know that every domain we ever think of has already been registered. Reminds me of the time I literally typed a bunch of random letters into an email registration form on GMAIL and it told me that it had already been taken….

So what is the point of this tool? Well, just like the name sounds – it allows you to search for available domains, domains that can be registered – you name it – it’s quick, it’s easy – and it works. Let’s see what the process involves:

Domain Checker

Unlike other sections in this guide – the domain checker is INSIDE the keyword scraper and is not accessed via the addons tab. Of course there had to be one trap in all of this!

Once you are inside the keyword scraper, you will want to enter in your phrases like so:

Domain Checker

18: meta scraper

Are you a data junkie? How much do you love looking at page titles, descriptions, and even keywords? If this sounds like something that makes you excited – keep your pants on because ScrapeBox can handle that as well. The way this works is very straightforward.

  1. The first thing you do is plug in a keyword to harvest your URLs from.
  2. After your URLs are harvested, you then hover your mouse over the “Grab” tab on the right hand side – and select the “meta info from harvested URL list”.

Your screen should now look like the following:

Meta Data Scraper

Not very intimidating is it? Can you guess what the next stay may be? If you guessed pressing the start button – you would be a genius! For completeness sake, here is what your screen should look like once things are rolling.

Meta Scraper

19: domain resolver

Last but certainly not least is the ability to check domains for their IP and country of origin, otherwise known as domain resolving or IP resolving. While this probably would not be used daily, it is still a handy feature to have available. The first step in this process is to fire up the proper addon by heading to the addons tab at the top of the tool – then selecting Domain Resolver. If the addon is not showing up, you need to install it from the list of available addons.

As you can see from the screenshot below, you have the ability to either load a pre-saved list of URLs or you can manually enter in domains by clicking “Add Entries”.

Domain Resolver

Once you have that finished, all you have to do is either tick the “try to resolve location” option or simply click Resolve to begin the process. When all is said and done, your results should look similar to the following:

Domain Resolver

2: blogger outreach guidelines

Harvesting material is a good way to get an overview of the market, however you won’t get much accomplished unless you actually do something with that data. The best way to launch your website to the top of the SERPs in 2021 is by forming relationships with those in the industry, by cultivating useful information, and by having an authority status in your select market.

Now I don’t know about you, but having to search each one of these manually and then record the results into an excel spreadsheet would push my sanity level by a small margin. I prefer to have a solid foundation and workflow and then attempt to automate the tasks that can be automated.

With ScrapeBox, you can too – let’s take a look. The very first task on your list should be to decide on your market’s topic. If you don’t know the main focus of your website, you should probably re-visit that BEFORE you start this step. Once you have your market focus down willy-nilly, it is now time to enter that focus into the software. This is how it’s done:

ScrapeBox Outreach

There are a variety of tools out there that allow you to find potential link prospects. I won’t name the obvious ones because they are….. obviously obvious! The purpose of this post is to show the white-hat side of this software, because you must always try to find the good in everything going on, right?

The only issue with using ScrapeBox as a means of finding people to form a relationship with is the fact that proxies will be needed. Like other software which tracks your rankings in the SERPs or goes out around the web to find potential prospects, SB can either be used with or without proxies.

As you may be aware, automating requests to the search engines is not the best course of action and the last thing you want to happen is having your IP banned due to the large number of requests being sent out. You can specify settings to reduce the amount of “stuff” being done at any given time though.

For this reason, a reliable proxy service will be the order of the day if you decide to go this route. I like to do some manual work and search out really high prospects on my own, however some people prefer the use of proxies for gathering large scale data.

It really depends on the type of project you are doing and the amount of work involved and your standpoint on the issue (yes, some will argue that using proxy services is not white hat, while others will dismiss the fact of proxies being black hat as complete nonsense…. which type are you?).

3: backlink checker

Everyone loves backlinks. It is what the web is made up of. Being involved in the search engine marketing industry will turn you into a link junkie/lover in no time at all. Love it or hate it, links have always and will for the foreseeable future, play a major role in the ranking power of any website.

Why is this true? The reason is that the internet is made up entirely of links – without links, there would not be any internet as we know it today. You get from site A to site B via a hyperlink and until that changes, backlinks will be here for some time.

Backlinks can help and they can hurt. When they do hurt, it is up to you to find them and remove them or get them disavowed. Perhaps the photo below reminds you of those late nights you spent trying to fix your backlink profile:Due to this fact, backlink checkers have risen left and right over the years.

Some are free, some are paid, some are better than others (as with anything in life) and others downright suck. As you may be guessing, I am now going to let you know how you utilize ScrapeBox to be your own free backlink checker. There are no monthly fees involved in this, the data is simple, and you have a limit of up to 1,000 links returned in the report – however it is free. First, enter in your URL inside the left text area.

Backlink Checker

    Copy it and then paste it into the right hand side, like so:

ScrapeBox Backlink Checker

  Next, move your mouse over the “addons” tab along the top of the screen and select it. You will get something similar to the screenshot below:

Backlink Checker Addons

If your addons tab looks different, it is probably because you have not installed any addons yet. All you have to do is click “Show available addons” and then install them one by one. It really is that easy! Once you click the backlink checker option underneath the addons tab, you will be presented with a screen like the one below:

Backlink Checker Harvester

All that is required for you to do now is select the “Load from ScrapeBox Harvester” option and then click START. When the results are done, you will have the option of downloading a .txt file with up to 1,000 backlinks. Not too shabby for being free…

4: whois checker

I WHOIS, you WHOIS, we all WHOIS for the “biz”! Seriously though, if you have a bunch of websites you want to check the WHOIS out on – ScrapeBox is a nice tool to get the job done. Of course you have your browser extensions and plugins, as well as manually looking up one domain at a time.

WHOIS checker

When you select the WHOIS option, you will be presented with a screen like the one below. All you have to do at this point is click the “Load” button and then “Load from ScrapeBox harvester”. Once your URLs are loaded, it’s as simple as pressing “Start”.

A word to note here: It is best if the proxies you are using for this addon module are of the SOCKS extension. A lot of the proxies you may use online are not SOCKS and you may run into some errors, so keep that in mind.

WHOIS Checker

Once your WHOIS information has completed, you will get a screen like the one below:

WHOIS Checker

As you may have noticed the information brought back is rather simple, however it can be really useful if you have a bunch of URLs to check at the same time. Have any of you ever had to check the WHOIS for multiple sites at one time and if so, why?

5: tdnam addon – godaddy auctions

Do we have any domain name junkies in the house? The TDNAM addon allows you scrape GoDaddy Auctions for domains that are ending with 24 hours and it will let you search that. As per usual, begin by clicking the addons tab and then installing the TDNAM addon if it is not already installed. The way it works is quite simple:

  1. You enter your keyword in order to start the search (try to start broad and work your way down the narrower path).
  2. You select the type of TLD you want to find (top level domain).
  3. You click……. Start.
  4. Done.

Take a look at the photo below to see what I mean:


From here, you can right click on any of the listings and then proceed to GoDaddy’s website for more information. It’s great to get an overview of what is going on in the domain name market and you can get through a lot of data rather quickly.

As you can see, the items displayed to you include:

  • Traffic
  • Price
  • End Time
  • Domain Age
  • Export Options

How many of you were aware that ScrapeBox can be used hand-in-hand with GoDaddy?

6: sitemap scraper

The sitemap scraper is a useful tool if you want to churn back the URLs from your website or from your competitors. As always, please install the addon from the available list of addons. Now what this addon will do, is load a valid sitemap from a domain, and then scrape all the URLs out of that sitemap.

  1. The first thing you should do is enter in your valid sitemap file and then copy/paste it over to the harvester section (just like we did in the previous examples). Take a look at the picture below for an idea of what this will look like:

Sitemap Scraper

It should also be noted that there are options for “Deep Crawl”. This allows the tool to go out to each link found and then also pull in more internal links from those originally found. Simple isn’t it?

7: outbound link checker

Just as you may have imagined, the outbound link checker is a useful addition to the software in that it allows you to quickly glance at the amount of links leaving a particular website. It also shows internal links as well. As always, please make sure that this module has been installed from the list of available addons (found along the top bar of the program’s interface). Once you have this addon installed, it’s time to get to work.

  1. For this example, I chose 3 random URLs and entered them into the text area on the left hand side.
  2. I then proceeded to copy those URLs over to the text harvester area on the right hand side.
  3. After this, I navigated up to the addon tab and selected the Outbound Link Checker option.

Take a look at the screenshot below:

Outbound Link Checker

After I loaded in the URLs and click Start, I was presented with the following screen:

Outbound Link Checker Screenshot

Another nice feature is the ability to filter out results based upon your own needs. In addition to that, you have the option of removing any error entries. This would be useful if you needed to come back with a list of websites that had more than “X” number of external links. See the photo below:

Outbound Link Checker

As far as outbound links go, that’s about it for this addon!

9: malware & phishing finder


love, you


love, we all


love, phishing bait! Who knew that malware could be your friend? With ScrapeBox, we can turn the most evil of evil’s into an inbound link opportunity by playing the Good Samaritan. Not all webmasters are the savvy types and many of them do not even use Google Webmaster Tools or for that matter, some don’t even check their website more than once every 3 months.

As is the case with internet vulnerabilities, malware and other exploits make their way around the net like an out of control pest. Why not help out others who are less fortunate and inform them? You may just get a link out of the process because they will be so grateful.

Malware Checker

This addon connects to a Google database and checks the sites for any Malware currently or from days gone by. As the process is running, you are able to glance very quickly and see which ones are the offenders. Note that sometimes errors will occur for various reasons.

Malware Checker

Pretty simple isn’t it? Now as far as link opportunities are concerned, this takes a bit of skill, but it could be worth the effort depending on the website you have found that is infected. Here are a few steps to take:

  1. Run a list of URLs through the Malware Checker addon
  2. Export the URLs and check them in OpenSiteExplorer for domain authority
  3. Sort the URL list by descending domain authority
  4. Use a browser WHOIS plugin or the built in WHOIS scraper of this tool in order to gather the contact information for each URL/webmaster
  5. Here’s the hard part – you need to reach out to the webmaster and let them know that their site is hosting malware or some other exploit (do not visit the website as it may infect your computer).
  6. Do not ask for a link at this point – wait for them to get back to you and for the issue to be resolved.
  7. Once you have a dialogue with the owner, feel free to form a partnership somehow.

There is no set guideline on how to use this for a backlink opportunity. You have to be creative here as it will be different for every industry you are in.

Is scrapebox a white hat seo tool?

I will pose an answer to this question with another question. Is the sky blue? At this point you either think I am losing it, or you clearly understand where this is headed – and kudos to you if the latter is true! The sky is in fact not blue or red or even orange for that matter.

Its color depends upon the time of day, whether we are color blind, if we have sunglasses on, or if we can even see at all! Likewise with ScrapeBox or any other tool, software can be abused and thrown around like a plague on the human race, which sadly is the case more often than not.

On the flip-side of that coin however is an overwhelming amount of power that can help speed up daily tasks and production for even the purest of the pure, hardcore white-hat junkies. ScrapeBox is a piece of software that costs $97. This software collects (or scrapes obviously) information off of the internet. Some of its features include:

  • Harvesting of proxies
  • Being able to create a sitemap of a website (did you know this?)
  • Ability to make a RSS feed (did you know this?)
  • Collecting keyword ideas
  • Collecting websites based on a footprint (handy)
  • Blog commenting en-masse (not a wise idea)
  • Pinging of URLs
  • RSS submission
  • and more…

Outbound link checker


Вы уже знаете, что количество трастовых страниц ограничено. Но это пустая трата времени — работать не покладая рук, чтобы получить обратную ссылку со страницы с высоким трастом, если она будет окружена сотнями других ссылок. К счастью, с помощью ScrapeBox вы можете мгновенно найти количество исходящих ссылок любой страницы (или страниц).

Нажмите «Addons» → «Show available addons». Выберите ScrapeBox Outbound Link Checker.


И нажмите «Install Addon» («Установить дополнение»). 


Если у вас есть список доменов, загруженных в ScrapeBox, вы можете использовать его. Откройте программу из меню дополнения и нажмите «Load List» («Загрузить список»). Нажмите «Load from ScrapeBox» («Загрузить из ScrapeBox»).


Если хотите, можете загрузить список URL-адресов из текстового файла. Скопируйте и вставьте свои целевые страницы в текстовый файл. Затем в дополнении нажмите «Load List» («Загрузить список») и «Load from File» («Загрузить из файла»).


Когда URL-адреса отобразятся в дополнении, нажмите кнопку «Start» («Запуск»). 


И дополнение покажет количество внутренних и внешних ссылок.


Если вы хотите максимизировать ссылочный вес, который вы получите от каждой ссылки, то можно оставить отображаться только страницы с менее чем 50-100 внешних ссылок. Для этого нажмите на кнопку «Filter» («Отфильтровать»).


И выберите пороговое значение:


И дополнение будет автоматически удалять любые URL-адреса со 100 или более внешних ссылок.


Scrapebox 101


Мы будем игнорировать нижний правый угол, так как это используется только для автоматического размещения комментариев в блоге.

Есть еще одна важная область — «manage lists» («управление списками»).


Здесь вы можете легко сортировать и фильтровать результаты, которые ScrapeBox находит для вас.


The forbidden s-word of seo: scrapebox

So you and your company (yes – even you one-[wo]man-armies out there) are brand new to the world of search engine optimization. Maybe your offline business has been suffering due to the economy or a myriad of other factors, however you are a warrior – a trooper – and you will not take no for an answer.

You know that the internet is a gold mine, but you have trouble tapping into this unending fountain of visitors. You manage to convince yourself that an online game plan is required. Over the course of a few days, you feverishly search the internet for tools and software that can help your endeavors.

After much frustration, panic, and tears, you finally come across a forum that is discussing SEO tactics and your eyes are drawn to the banter back and forth over a particular piece of software, it is called ScrapeBox. In your desire to make your business an online sensation, you register for an account on this forum and introduce yourself as a newcomer to the search engine marketing world.

People respond to you and welcome you aboard and all is going well….. but then you make a very serious mistake…. an oh-so-terrible mistake…. You proceed to ask your very first question. You want input from the “SEO” community on whether ScrapeBox will help your website rank in the search engines.

A meme reaction to a newcomer's reaction on using ScrapeBox.

While this is amusing to read about, it also carries a lot of truth behind it. Time and time again we see newcomers to the SEO community being flamed off the discussion boards for questions deemed misguided, misinformed, black hat, grey hat, upside down hat, you name it.

The real scrapebox

While ScrapeBox has gotten a


Анализ обратных ссылок конкурентов


Выберите ScrapeBox Backlink Checker 2:


И нажмите «Install Addon» («Установить дополнение»).


Для работы дополнения вам нужно вставить домашнюю страницу вашего конкурента в область harvester results. Для этого просто введите имя сайта:


В поле results («результаты») вставьте цифру 10.


И выполните парсинг результатов. 


Удалите любые страницы, которые вас не интересуют.


Вернитесь в меню дополнений и выберите дополнение Backlink checker.


Нажмите «Load URL List» («Загрузить список URL-адресов»). Выберите «Load from ScrapeBox Harvester» («Загрузить из ScrapeBox Harvester»).


Нажмите «Start». 


Сделав это, выберите «Download Backlinks» («Загрузить обратные ссылки»). 


И сохраните файл в формате .txt.


Закройте Backlink checker и вернитесь в главное меню ScrapeBox. В разделе «Manage Lists» («Управление списками») выберите «Import URL List» («Импорт списка URL-адресов»).


Загрузите сохраненный текстовый файл.

Теперь у вас есть список отличных доноров, осталось их обработать.

Использование встроенного сервиса scrapebox

ScrapeBox имеет одну классную особенность, которая находит и добавляет для вас бесплатные прокси.

Перейдите к полю «Select Engines and Proxies». Нажмите «Manage»:


В следующем окне выберите «Harvest Proxies.» Выберите все поддерживаемые источники. Нажмите «Start» («Запуск»).


Нажмите «Apply» («Применить»).


Важно проверять прокси перед их использованием. Если вы используете нефункциональные прокси, ScrapeBox просто не будет работать. Нажмите кнопку «Test Proxies» («Проверить прокси»).


Выберите «Test all proxies» («Проверить все прокси»).


Подождите, пока ScrapeBox проверит прокси (это может занять некоторое время). Когда проверка будет закончена, вы увидите что-то похожее на это:


Нажмите кнопку «filter» («отфильтровать») и выберите «Keep Google Proxies».


Нажмите кнопку save («сохранить») и выберите «Save selected proxies to ScrapeBox» («Сохранить выбранные прокси для ScrapeBox»).


Это позволит сохранить рабочие, одобренные Google прокси.


Теперь, когда у вас есть понимание того, как это работает, пора использовать ScrapeBox, чтобы помочь вам построить невероятные обратные ссылки.

Использование прокси


Как собрать результаты

Давайте начнем с области «Harvester»

В ней есть два важных раздела:

«Footprint» («Футпринт»):


И «Keywords» («Ключевые слова»):


Футпринты – это то, что вы включаете, когда хотите посмотреть что-то, что, как правило, появляется на некоторых сайтах. Например, «Powered by WordPress» — это общий футпринт, используемый для поиска блогов, созданных с помощью WordPress.

Допустим, вы хотите найти сайты на домене .gov, у которых есть страницы, посвященные питанию. Сначала вы должны поместить в поле футпринта.


Затем нужно включить любые ключевые слова, которые вы хотите объединить с футпринтом. Например, если вы вводите ключевое слово «weight loss» («потеря веса»), ScrapeBox будет автоматически искать weight loss.


Вы можете добавить сотни ключевых слов, и ScrapeBox автоматически объединит их с футпринтом. Когда вы будете готовы выполнить парсинг результатов, перейдите вниз к настройкам поисковой системы и прокси.


Когда у вас есть несколько поисковых цепочек, нажмите на кнопку «Start Harvesting» («Начать сбор»):


Теперь в области «URL’s Harvested» появился список URL-адресов:


Копирование локального цитирования в seo

Если вы работаете над локальным SEO, вы уже знаете, что цитирование физического адреса компании, номера телефона и т.д. положительно работает для SEO. Тем не менее, найти упоминания данных ваших конкурентов с помощью OSE или других инструментов не всегда возможно. Почему?

Потому, что цитирование имени, адреса и номера телефонов не всегда являются обратными ссылками, и поэтому они не отображаются в инструментах для анализа ссылок. Следовательно, найти страницы местных сообществ и каталогов практически невозможно. Но только не со ScrapeBox.

Для примера давайте предположим, что вы пытаетесь получить позиции по запросу — стоматолог из г. Потакет в Род-Айленде. Сначала выполните локальный поиск в Google:


И посетите сайт одного из лучших результатов.


Посмотрите на адрес на боковой панели или страницу «contact us» («свяжитесь с нами»).


И скопируйте этот адрес в область ключевого слова в ScrapeBox. Важно: Убедитесь в том, что адрес занимает одну строку.


Поместите почтовый адрес в кавычки (если вы этого не сделаете, поисковые системы будут время от времени возвращать результаты, которые не имеют точного совпадения с почтовым адресом на странице).


Добавьте несколько вариантов названия улицы. Таким образом, если цитата занесена в список как «ave.» вместо «avenue» или «rd.» вместо «road», вы все равно найдете ее.


И, наконец, вам необязательно видеть страницы бизнеса, которые вы скопировали в результатах. И если на боковой панели или нижнем колонтитуле (как это делают многие местные предприятия) сайта указан собственный адрес, вы обнаружите, что ваши результаты будут завалены сотнями страниц этого домена.

Добавьте его к окончанию ключевых слов, которые вы уже вводили в ScrapeBox.


Нажмите «Start harvesting». И вы обязательно найдете действительно много возможностей для размещения упоминаний данных вашего бизнеса:


Найдите возможность оставить гостевой пост


И объедините их с целевыми ключевыми словами.


Получите свои результаты. Но на этот раз требуется удалить дубликаты доменов. В конце концов, вам нужно увидеть только один опубликованный гостевой пост или требования к написанию гостевого поста, чтобы понять, что они принимают гостевые публикации.

Нажмите «Remove/Filter» («Удалить/Отфильтровать») и выберите «Remove Duplicate Domains» («Удалить дубликаты доменов»).


Отсортируйте по важности доменов и приступайте к действию!

Найдите сайты, заражённые вредоносными программами, и помогите им

Трудоемкая, но эффективная стратегия по наращиванию ссылочной массы, относящаяся к «белому» SEO, заключается в том, чтобы помочь администраторам зараженных сайтов. Некоторые владельцы месяцами не заботятся о своих сайтах, оставляя их на растерзание хакерам.

Не существует футпринтов, которые можно использовать для поиска зараженных сайтов. Однако сайты, созданные с помощью CMS Pligg, как правило, имеют необычно большое количество заражений. Вы можете найти сайты, созданные с помощью Pligg, благодаря этим двум футпринтам:


После того как URL-адреса будут загружены, установите дополнение Malware and Phishing Filter.


Запустите дополнение и выберите «Load URLs from Harvester» («Загрузить URL-адреса из Harvester»).


Нажмите «Start» («Запуск»).


Инструмент покажет вам, есть ли в вашем списке какие-либо зараженные сайты.


Если вы найдете зараженные сайты, не посещайте их! Они могут заразить ваш компьютер вредоносными программами.

Вместо этого выберите «Save Bad URL’s to File».


И сохраните список.

Давайте используем другой аддон ScrapeBox, чтобы получить контактную информацию владельцев зараженных сайтов, — ScrapeBox Whois scraper. Этот инструмент позволяет найти информацию на зараженных сайтах, на самом деле не посещая их.


После установки откройте дополнение. Загрузите файл со списком зараженных сайтов.


Нажмите «Start». 


По завершении вы увидите список имен, сообщения электронной почты и т.д.



Теперь у вас 10 дан черного пояса по ScrapeBox! В следующей главе мы рассмотрим, как получать ссылки с картинок.

Отфильтруйте результаты

Если вы выполняете парсинг в нескольких поисковых системах, вы, вероятно, получите несколько дублированных результатов в своем списке. Их можно легко удалить из списка, нажав на кнопку «Remove/Filter» («Удалить/Отфильтровать»).


Выберите «Remove Duplicate URLs» («Удалить дубликаты URL-адресов»).

Если вы не хотите, чтобы один и тот же домен появлялся в результатах, вы можете удалить дубликаты доменов, выбрав «Remove Duplicate Domains» («Удалить дубликаты доменов») из опций «Remove/Filter»:


Теперь у вас есть очищенный список, отсортированный по PR. Вы можете экспортировать эту информацию в Excel или текстовый файл, нажав на кнопку «Export URL List» («Экспорт списка URL-адресов») и выбрав опцию экспорта, которая вам больше всего нравится (лично мне нравится Excel).


Получение ссылок со страниц с перечнем полезных сайтов

Прежде всего, введите один из этих проверенных футпринтов в ScrapeBox:


Вместе со связанными с нишей ключевыми словами.


И нажмите «Start Harvesting.» 


Теперь экспортируйте свой список, проверьте его на наличие неработающих ссылок или просто напишите электронное письмо владельцам сайта и попросите ссылку!

Расширенное наращивание ссылочной массы при помощи scrapebox

1Произнесите, находясь в компании SEO-специалистов, занимающихся «белым» SEO, слово «ScrapeBox», и вы увидите, как на вас устремится множество ледяных взглядов. В какой-то степени их гнев понятен: большинство раздражающих спам-комментариев в блоге, которые попадают в папку для спама WordPress Akismet, появляется благодаря ScrapeBox. Но это всего лишь инструмент, а для чего его использовать — зависит только от человека.

На самом деле многие SEO-агентства, занимающиеся «белым» SEO, считают это программное обеспечение одним из своих секретных орудий. В этой главе я собираюсь научить вас, как использовать ScrapeBox во благо… а не во зло.

Оставьте комментарий