ScraperWiki pone sus herramientas en manos de periodistas no programadores

porJessica Weiss
Oct 4, 2013 en Periodismo de datos

Los periodistas que han ignorado los reiterados llamados para aprender a codificar y programar tienen suerte.

ScraperWiki, una plataforma para extraer y analizar datos de la web, ha lanzado un nuevo conjunto de herramientas para periodistas, y está ofreciéndola de forma gratuita. Mientras que ScraperWiki mantiene y mejora sus herramientas originales para los programadores profesionales, su nueva plataforma está diseñada para ser más potente con aquellos usuarios que no saben programar.

Desde que ganó el Knight News Challenge en 2011, ScraperWiki, con sede en el Reino Unido, ha estado desarrollando herramientas para ayudar a que los periodistas analicen y utilicen muchos datos para sus artículos. El equipo realizó una serie de campamentos de periodismo de datos y jornadas llamadas NewsHack Days para enseñarle a los periodistas sobre cómo obtener datos en sus reportajes.

La conclusión fue que hay algunos periodistas que quieren aprender a programar, pero muchos otros que no. Aún así, hasta quienes no conocen de programación necesitan ser capaces de usar datos en sus reportajes.

Como respuesta a esta situación, ScraperWiki está ofreciendo nuevas opciones para extraer datos de sitios web en un formato legible, a través de herramientas de "apuntar y cliquear" y sin necesidad de usar programación. Los instrumentos permiten a los usuarios extraer datos de archivos PDF, CSV, Excel y HTML, al igual que buscar en Flickr las imágenes que contengan datos geográficos, o recolectar todas las pistas de audio que un usuario haya escuchado en Last.fm. Los periodistas interesados en la búsqueda de usuarios de Twitter o hashtags ahora pueden obtener los datos sobre cuentas en unos pocos pasos.

Para mantenerse fiel a sus raíces, ScraperWiki ha mantenido las facilidades del “código en tu navegador”, para aquellas personas que quieran programar o aprender a hacerlo.

Mientras que los datos de la versión anterior eran automáticamente públicos, en esta nueva versión ahora se mantienen privados de forma predeterminada, por lo que los periodistas pueden "guardar su primicia" y tener el control sobre sus datos hasta que estén listos para publicarse.

"La idea es simplemente tratar de hacer que los datos sean más fáciles de portar", dijo la directora de marketing de ScraperWiki, Aine McGuire, a IJNet. "Este es un lugar donde se pueden liberar los datos fuera de la red para que sean mucho más accesibles".

Después de obtener los datos y hacerlos portables, los usuarios tienen varias posibilidades para trabajar con ellos. Pueden verlos en formato de tabla, crear gráficas, mapas y descargarlos, compartirlos o resumirlos con una serie de herramientas de visualización.

Los programadores son fomentados a colaborar para encontrar nuevas formas de usar y visualizar los datos, mediante la codificación de sus propias herramientas, usando Git o SSH. Y ScraperWiki también tiene su Web API que permite a los usuarios extraer datos para usarlos en la web o en otras aplicaciones.

El periodista de tecnología de GigaOm, Derrick Harris, escribió recientemente sobre las posibilidades de visualización de seguidores de Twitter usando esta nueva herramienta. Después de extraer y limpiar sus datos con ScraperWiki, Harris utilizó Tableau Public, IBM Many Eyes y Google Fusion Tables para crear visualizaciones.

Los planes a futuro incluirán una función llamada "push to Tableau" dentro de ScraperWiki, para que los datos puedan ser usados sin problemas en la popular visualización de suite.

McGuire afirma que la idea es dejar que los periodistas expandan los límites sobre cómo usar y visualizar los datos en sus reportajes.

"Al desacoplar los datos de una aplicación, creemos que es posible que desees realizar muchas cosas diferentes con esa información ", afirma. "Ahora, tu puedes ser capaz de hacer cosas que no pensaste que eran posibles antes".

A corto plazo, ScraperWiki no está preguntando a sus usuarios si están afiliados a alguna organización oficial, aunque a los periodistas que utilizan el sitio se les solicita que citen a ScraperWiki como su fuente de recopilación de datos.

Para actualizarlo: los periodistas que ya cuentan con un usuario en ScraperWiki deben enviar un email a hello@scraperwiki.com con el título de “journalist [tu nombre completo]” para realizar la solicitud. Aquellos que son nuevos en ScraperWiki deberán establecer una nueva cuenta gratuita y mandar este correo para pedir la actualización.

Para saber más, visita ScraperWiki.

Jessica Weiss, ex editora ejecutiva de IJNet, es una periodista independiente que vive en Buenos Aires.

Texto traducido del inglés al español por Andrea Arzaba.

Imagen cortesía del usuario de Flickr Leap Kye bajo una licencia de Creative Commons.