Páginas

domingo, 27 de marzo de 2016

Curación de contenidos

¿Qué es la curación de contenidos?

Desde un punto de vista práctico, podríamos decir que la curación es un proceso de selección de contenidos vinculados a un tema en particular. Mientras la agregación tradicional sólo se cuidaba de reunir contenidos relativos a un tema determinado, la curación filtra esos contenidos y selecciona de entre ellos sólo los mejores o de mayor relevancia.

Juan Arellano publicó en un artículo: “La curación de contenido se entiende como la capacidad por parte de un sistema o del ser humano de encontrar, organizar, filtrar y dotar de valor, relevancia, significatividad, en definitiva, de utilidad el contenido de un tema específico que procede de diversas fuentes (medios digitales, herramientas de comunicación, redes sociales…)”. 


Cinco etapas para llegar a la curación de contenidos.

En una pirámide, la curación se mostraría como la etapa final de participación en la Red, justo después de la producción, en una evolución de esa participación compuesta de cinco etapas: consultar, compartir, comentar, producir, curar.

Existen cinco modelos de curación de contenidos:

  • La agregación, el acto de reunir la información más relevante sobre un tema específico en un mismo lugar.
  • La destilación, una forma de realizar la curación de contenidos en un formato más simple, donde solo son compartidas las ideas más relevantes.
  • La elevación, con la misión de identificar tendencias en pequeñas porciones de información compartidas online, como por ejemplo lo tweets en Twitter.
  • El mashup, como la unión de contenidos curados para crear un nuevo punto de vista.
  • La cronología, atendiendo a la reunión de información histórica organizada sobre la base del paso del tiempo para la evolución en la percepción de un determinado tema.

De estos diferentes modelos de curación, no es que uno sea mejor que otro, sino que permiten a las organizaciones posicionarse de diferentes maneras en la mente de los usuarios.

Hay algunas funciones, que se han ido incorporando a lo largo de la evolución de la Web 2.0 (Blogs, Facebook, Twitter, Tumblr, Delicious, Foursquare, Read it later, etc.), que son esenciales para la
curación de contenidos. Estas son las siguientes:
  1. Divulgar lo que otros publican. Con Facebook, pero sobretodo con Twitter y Tumblr, se puso de manifiesto la importancia de “re-transmitir” la información con retweets y re-blogs respectivamente).
  2. Guardar lo que otros publican para leerlo y procesarlo más tarde. Esto es lo que puedes hacer con Delicious.
  3. Y, finalmente, estructurar la información en conjuntos. Hasta ahora teníamos dos mecanismos para organizar la información: la timeline y las etiquetas (hashtags). Pero también se puede clasificar lo que se publica en conjuntos que se pueden compartir y en los que otros usuarios pueden contribuir, a su vez, incluyendo sus propias publicaciones.

El futuro de la Web Social se verá impulsado por estos curadores de contenido, content curators o “intermediarios críticos del conocimiento”, que se encargan de recoger y compartir los mejores contenidos en línea publicando compilaciones de gran valor creados por otras personas.



Existen numerosas herramientas que permiten desarrollar una tarea eficiente a los curadores
de contenido. Veamos algunas de ellas:
  • La herramienta por excelencia es, sin lugar a dudas, Scoop.it (que aprenderemos a utilizar en unos momentos), a través de la cual es posible buscar, seleccionar y compartir los mejores posts a través de un espacio web específico y de las redes sociales.
  • Otra de las mejores herramientas es Storify, que permite crear y almacenar artículos y cronologías utilizando el contenido de las Redes Sociales (Facebook, Twitter, YouTube, Instagram, SoundCloud, entre otras) en forma de tweets, imágenes y videos.
  • Una excelente herramienta es Pinterest, que permite la creación de tableros temáticos que permiten incorporar todo tipo de imágenes, sitios webs, videos, denominados pines que enlazan con la fuente o URL de donde proceden.
  • Etceter es una nueva forma de organizar y compartir el conocimiento que permite recopilar de una forma ordenada y visual diferentes tipos de enlaces y crear con ellos píldoras de información.
  • Por otra parte, con la aparición de las tabletas y los smartphones surgieron un gran número de herramientas que hacen fácil la creación y gestión de lectura y distribución de contenido en forma de revista. Algunas de ellas son Flipboard, Play Kiosco, Feedly, entre otras.

¿Cómo preguntarle a Internet?

Para descubrir más acerca de algo, debemos ordenar los conocimientos previos que tenemos sobre su respuesta, aprovechar de manera eficaz esos “retazos” de información que poseemos y formular una buena pregunta. Luego, los diferentes elementos identificables en la formulación de una búsqueda de información, deberán ser traducidos a términos que puedan ser interpretados por un buscador, denominados palabras claves o descriptores.

Existen tres tipos de palabras claves:

  • Las palabras claves de campo temático: Son los nombres de las disciplinas y los términos imprescindibles que no pueden dejar de estar mencionadas en un documento que habla del tema de nuestra pregunta
  • Las palabras claves de problema especifico: Son frases breves que mencionan el asunto o su núcleo problemático más específico. En realidad, no son palabras claves, sino frases específicas o expresiones claves, segmentos de texto insertos en un contexto que intentamos rescatar.
  • Las palabras claves de referencias autorales: Son nombres de autores que se encuentran directamente relacionados con el problema, y que son considerados clásicos o referentes importantes en la materia.

Fragmento de "La teoría de las preguntas" por Grant Snider.

Google Académico


Es un buscador de Google enfocado en el mundo académico que se especializa en literatura científica-académica. El sitio indiza editoriales, bibliotecas, repositorios, bases de datos bibliográficas, entre otros; y entre sus resultados se pueden encontrar: citas, enlace a libros, artículos de revistas científicas, comunicaciones y ponencias a congresos, informes científicos-técnicos, tesis, tesinas, archivos depositados en repositorios.



Si bien Google Académico ofrece ciertas garantías con respecto a la calidad del material disponible, es importante constatar su confiabilidad revisando si éste contiene los elementos que corresponden a un documento académico como: título, nombre del autor, datos de la publicación y/o institución que lo difunde, etc. Estos elementos deben permitirnos formular una cita bibliográfica completa.

Espero que puedan ponerlo en practica, Saludos!

sábado, 26 de marzo de 2016

Web Superficial y Web Profunda

Web Superficial o visible 

La Web Superficial comprende todos aquellos sitios cuya información puede ser indexada por los robots de los buscadores convencionales y recuperada casi en su totalidad mediante una consulta en sus formularios de búsqueda.

Las características principales de los sitios de la Web visible son:

  • Su información no está contenida en bases de datos.
  • Es de libre acceso.
  • No se requiere la realización de un proceso de registro para acceder a la información.
  • Mayoritariamente está formada por páginas Web estáticas, es decir páginas o archivos con una URL fija y accesibles desde otro enlace. 

Iceberg como representación de Internet.

Web Profunda o invisible

Es el término utilizado para describir toda la información disponible en Internet que no se recupera interrogando a los buscadores convencionales. Generalmente es información almacenada y accesible mediante bases de datos. Parte de la información es "invisible" a los robots de los buscadores convencionales, ya que los resultados se generan en la contestación a una pregunta directa mediante páginas dinámicas (ASP, PHP, etc.) es decir páginas que no tienen una URL fija y que se construyen en el mismo instante (temporales) desapareciendo una vez cerrada la consulta.

Sherman y Price identifican cuatro tipos de contenidos invisibles en la Web:

1. La Web opaca está compuesta por archivos que, si bien podrían estar incluidos en los índices de los buscadores, no lo están por alguno de los siguientes motivos:
  • Extensión de la indización: a veces, por economía, no todas las páginas de un sitio son indizadas en los buscadores.
  • Frecuencia de la indización: los buscadores no poseen la capacidad de indizar todas las páginas existentes; a diario se agregan y modifican muchas y la indización no se realiza al ritmo que permita incluirlas a todas.
  • Número máximo de resultados visibles: aunque los motores de búsqueda arrojan a veces un gran número de resultados, generalmente limitan el número de documentos que se muestran (entre 200 y 1000).
  • URL desconectadas: las generaciones más recientes de buscadores, presentan los documentos por relevancia basada en el número de veces que aparecen referenciados en otros. Si un documento no tiene un link a él, desde otro documento, será imposible que la página sea encontrada, pues no se encuentra indizada.
2. La Web privada consiste en las páginas Web que podrían estar indizadas en los buscadores pero son excluidas deliberadamente por alguno de estos motivos:
  • Las páginas están protegidas por contraseñas.
  • Contienen un archivo “robots.txt” para evitar ser indizadas.
  • Contienen un campo “noindex” para evitar que el buscador pueda indizar la parte correspondiente al cuerpo de la página.
3. La Web propietaria incluye aquellas páginas en las que es necesario registrarse para tener acceso al contenido, ya sea de forma gratuita o arancelada.

4. La Web realmente invisible se compone de páginas que no pueden ser indizadas por limitaciones técnicas de los buscadores, programas ejecutables y archivos comprimidos, páginas generadas dinámicamente, es decir, que se generan a partir de datos que introduce el usuario, información almacenada en bases de datos relacionales, que no puede ser extraída a menos que se realice una petición específica.

Conclusión:

Los buscadores tradicionales sólo ofrecen acceso a una pequeña parte de lo que existe online, lo que se ha comenzado a llamar como "Web superficial o visible". Lo que resta, "Web profunda o invisible", es un amplio banco de información ubicado en catálogos, revistas digitales, blogs, entradas a diccionarios y contenido de sitios que demandan un login (aunque sea gratuito) y otros tipos de contenido que no aparecen entre los resultados de una búsqueda convencional.

viernes, 25 de marzo de 2016

Operadores para mejorar nuestras búsquedas

Normalmente, cuando realizamos una búsqueda en Internet, comenzamos por un concepto y lo vamos acotando a medida que encontramos información.
Sin duda alguna la mejor manera de obtener buenos resultados en nuestras búsquedas de información en Internet es seleccionar las palabras claves correctas, ya que de ellas dependerán enteramente los resultados obtenidos.

Doodle en homenaje a George Boole.

Las herramientas de búsqueda permiten relacionar dos o más palabras claves y frases mediante "operadores" para ampliar la búsqueda, reducirla o reorientarla según los resultados.



Espero que practiquen con estos operadores, saludos!

domingo, 20 de marzo de 2016

Las mejores herramientas de búsqueda

Existen distintos tipos de herramientas de búsqueda de información en Internet. Cada una de ellas funciona de una manera diferente y tiene su propio propósito y alcance. 

Aquí nos referiremos a:
  • Buscadores.
  • Metabuscadores.
  • Directorios.
  • Guías.
  • Software Especializado.

Les recomiendo que utilicen estas herramientas en su próxima búsqueda. Saludos!