Crawleando a web com Scrapy

Olá jovens Padawans, eu sou o Zilla e venho lhes apresentar o Scrapy, um framework em Python para criação de crawlers para páginas web, mais conhecidos como Spiders.

Introdução ao Scrapy

Para os estudantes da academia Jedi que ainda não sabem o que é um crawler, aqui vai uma breve explicação: Um crawler, também conhecido como Spider ou Bot, é um software que realiza varreduras em websites com o objetivo de coletar informações relevantes. Eles são capazes de capturar qualquer informação escrita no website.

Pense num e-commerce, por exemplo, um crawler poderia capturar informações sobre um produto como, nome e valor. Ele também seria capaz de seguir os links da página e ir navegando site adentro, capturando ainda mais informações.

Continue reading Crawleando a web com Scrapy

BAAS: Seu novo melhor amigo

Friends don’t let friends build data centers.

Esta frase, cunhada em 2014 por Charles Phillips então CEO da Amazon Web Services sintetiza de forma muito bem humorada a tendência que tomou de assalto a indústria de tecnologia nos últimos 5 anos. O paradigma de que produtos digitais deveriam residir em máquinas mantidas in-house ruiu perante serviços capazes de entregar armazenamento e poder computacional on-demand, em qualquer lugar do mundo, com segurança e consistência sem precedentes. Uma proposta especialmente interessante para o crescente número de empresas que apostam no modelo de distribuição SAAS (Software As A Service).

Em meio a esse novo mercado bilionário, gigantes como Amazon, Google e Microsoft disputam agressivamente em uma corrida para baratear, expandir e diversificar seus ecossistemas de Cloud Computing. O resultado: uma enxurrada de inovações disruptivas, como o BAAS.

Continue reading BAAS: Seu novo melhor amigo