Medialab Prado

Compartir

Periodismo de datos: Aprende web scraping y cómo trabaja con los datos El Confidencial

03.03.2014 17:00h - 20:00h

Lugar: Auditorio (2ª planta/2nd Floor)

Volvemos a la carga con las actividades del grupo de trabajo de periodismo de datos tras el éxito del taller de producción (I y II) realizado en otoño. En estas primeras sesiones de 2014, coordinadas por la Escuela de Datos de la OKFN-es, nos centraremos en conocer experiencias de trabajo con datos y también en seguir aprendiendo nuevas herramientas. En esta decimocuarta sesión nos centraremos en la elaboración de las historias y la extracción de datos

Primero, Daniele Grasso y Jesús Escudero, periodistas de El Confidencial, nos contarán su experiencia desde la redacción del periódico en el trabajo con los datos. [streaming en directo]

Después, el desarrollador Miguel Fiandor nos mostrará cómo extraer datos de páginas web o utilizar los ya extraídos a través de ScraperWiki. [streaming en directo]

periodismo

Gráfico del artículo El sector eléctrico español da trabajo a 24 excargos públicos, publicado en El Confidencial.
 

Programa

17:00h - 17:50h: Cómo hacer periodismo de datos en el día a día, por Daniele Grasso y Jesús Escudero, periodistas de El Confidencial.

 

El periodismo de datos no se limita solo a las grandes investigaciones de varios meses. Puede ser una manera de aportar valor añadido y contexto a informaciones de actualidad. Recurrir a los datos es muy útil a la hora de complementar noticias urgentes, informaciones clásicas, grandes eventos señalados y de profundizar en la publicación de estadísticas oficiales. Para ello, Daniele Grasso y Jesús Escudero contarán el proceso de elaboración del periodista de datos y casos prácticos de su experiencia en El Confidencial y en otros medios.

Descargar presentación

 

18:00h - 20:00h: Rascando datos de la Web con ScraperWiki, taller de web scraping, por Miguel Fiandor, desarrollador del proyecto Transparencia de Cuentas Públicas.

 

Un taller muy práctico, útil y accesible de scraping o captura de datos con ScraperWiki y Python. Mostraremos, a partir de ejemplos concretos, cómo capturar datos de una web con las mejores librerías de Python: BeautifulSoup y Requests. Algunos los elaboraremos desde cero y en otros casos, utilizaremos el trabajo de otras personas que ponen a nuestra disposición su experiencia. Veremos también algunos consejos de buenas prácticas para el mejor uso de ScraperWiki, por ejemplo, cómo automatizar formularios y cómo limpiar los datos que nos traemos al hacer scraping antes de salvarlo en una pequeña base de datos o una hoja de cálculo.

Descargar presentación

 

 

Condiciones de uso