Jornalistas iniciantes em matéria de código tem mais um recurso para utlizar.
O ScraperWiki, uma plataforma de extração e análise de dados da Internet, lançou em um novo conjunto de ferramentas para jornalistas, acessível gratuitamente no momento. Enquanto continua a manter e melhorar suas ferramentas para programadores, a nova versão de ScraperWiki foi projetada para ser mais poderosa para o usuário que não tem técnicas de códigos.
Desde que conquistou o Desafio Jornalístico Knight em 2011, o ScraperWiki, com base no Reino Unido ScraperWiki, desenvolveu ferramentas de desenvolvimento para ajudar os jornalistas a analisar e utilizar mais dados para reportagens. A equipe dirigiu uma série de treinamentos de jornalismo de dados e o evento NewsHack Days para ensinar jornalistas como raspar dados para suas matérias.
A conclusão: Há alguns jornalistas que querem aprender código, mas muitos outros não querem. Ainda assim, os não-codificadores precisam ser capazes de utilizar dados em suas reportagens.
Em resposta a esse feedback, o ScraperWiki está oferecendo novas opções para pegar dados de sites e em um formato legível por seres humanos, utilizando ferramentas do tipo "apontar e clicar", sem necessidade de programação. As ferramentas permitem que os usuários raspem dados de PDFs, CSVs, Excel e HTML; pesquisem no Flickr por imagens contendo dados geográficos; ou reúnem todas as faixas de áudio de um usuário Last.fm. Jornalistas interessados em pesquisar hashtags ou usuários do Twitter agora podem raspar contas de dados brutos dos usuários em poucos passos.
Mantendo-se fiel às suas raízes, o ScraperWiki've continua com o recurso "código em seu browser" de sua versão original para pessoas que querem codificar ou aprender a codificar.
Enquanto que na versão anterior os dados ficavam públicos automaticamente, os dados são privados agora na opção padrão do sistema para que os jornalistas possam "proteger seus furos" e ter controle sobre seus dados até que estejam prontos para publicação.
"O conceito é simplesmente para tentar fazer os dados muito mais portáteis," disse à IJNet Aine McGuire, gerente de marketing do ScraperWiki. "Este é um lugar onde você pode liberar dados da Internet para torná-los muito mais acessíveis."
Depois de raspar os dados e torná-los portáteis, os usuários têm várias possibilidades novas para trabalhar com dados. Podem visualizar dados em um formato de tabela, criar um gráfico ou mapa do conjunto de dados, um conjunto de dados usando consultas SQL, fazer download ou compartilhar os dados, ou resumi-los com uma série de ferramentas de visualização.
Codificadores são encorajados a colaborar para encontrar novas maneiras de usar e visualizar os dados, codificando suas próprias ferramentas com Git ou SSH. E o ScraperWiki também tem um Web API para permitir aos usuários extrair dados para uso na Web ou em outros aplicativos.
Derrick Harris, jornalista de tecnologia da GigaOm, escreveu recentemente sobre as possibilidades de visualização de seguidores no Twitter usando a nova ferramenta do ScraperWiki. Após a raspagem e limpeza dos dados no ScraperWiki, Harris usou Tableau Public, IBM Many Eyes e Google Fusion Tables para criar visualizações.
Planos futuros incluem uma ferramenta “push to Tableau” dentro do ScraperWiki para tornar dados perfeitamente utilizáveis no popular suíte de visualização de dados.
McGuire disse que a ideia é permitir que jornalistas expandam os limites de como usar e visualizar dados em suas matérias.
"Quando você separa dados de um aplicativo, acreditamos que você pode querer fazer muitas coisas diferentes com nesses dados", disse ela. "Agora, você pode ser capaz de fazer coisas que não achava que eram possíveis antes."
Por um prazo curto, o ScraperWiki não está pedindo ao público para confirmar que é afiliado a organizações oficiais. Jornalistas que utilizarem o site devem citar o uso do ScraperWiki como fonte de coleta de dados.
Para fazer o upgrade: Jornalistas cadastrados no ScraperWiki podem enviar um e-mail para hello@scraperwiki.com escrevendo no assunto “journalist [seu nome completo]" para pedir um upgrade. Quem é novo no ScraperWiki deve criar uma conta gratuita Community e depois enviar um e-mail pedindo por um upgrade.
Para saber mais, visite ScraperWiki.
Jessica Weiss, ex-editora-chefe da IJNet, é uma jornalista americana com base em Buenos Aires.
Imagem de caminhão de brinquedo do usuário Leap Kye no Flickr sob licença Creative Commons