Categorías
Ciencia de la información

OPAC Social // Scriblio en español y networking


Scriblio

La web social no ha sido ajena a las unidades de información, es por esto que ahora pueden encontrarse catálogos en línea (OPAC del inglés On line Public Access Catalog) Sociales. ¿Qué tiene de diferente un OPAC tradicional a uno social? Básicamente que los usuarios pueden comentar, recomendar, calificar y compartir los registros bibliográficos allí almacenados mediante herramientas de la web social o web 2.0.

Actualmente pueden encontrarse varias herramientas desarrolladas bajo licencias libres, es decir, que pueden descargarse sin tener que pagar a terceros por su uso como SOPAC2, oBiblioOPAC o Scriblio. Ésta última fue la que más me llamó la atención por la facilidad y flexibilidad que permite; está basada en WordPress y el principio es que modifica mediante plugins este administrador de contenidos para que pueda usarse como un catálogo en la red. En algunas «pruebas de laboratorio» he podido trabajar con este software y a pesar de que me parece tremendamente útil para cualquier biblioteca 2.0, aún no existe la versión en español; además que servicios como WorldCat que tienen hasta aplicaciones para Facebook tampoco son una solución, alguna vez traté de buscar un libro por este medio a ver qué biblioteca bogotana lo tenía y me llevé una gran sorpresa cuando el libro más cercano estaba a medio mundo de distancia.

¿Quieres verla más de cerca y con notas? Click aquí

Buscando manuales de Scriblio, revisando conversaciones en listas de correos encontré a bastantes usuarios de habla hispana que están tratando de implementar esta herramienta en sus unidades de información sin mucho éxito y la experiencia llega a ser «frustrante» como en algún momento lo mencionó Julio Santillán de Perú. En la web encontré a Oskar Calvo de Documentados.com (España) con quien nunca he hablado en persona pero que gracias a la web decidimos trabajar en Scriblio en castellano. Es así que presento a ustedes ES.scriblio.net, el espacio en español patrocinado por los desarrolladores de este software con quienes he venido trabajando desde hace un tiempo.

Scriblio en español busca crear una comunidad de usuarios de este software en nuestra lengua, inicialmente brindar manuales y tutoriales para paulatinamente traducir este programa en su totalidad. No esperamos hacer este trabajo solos, así que si alguien quiere aportar, tiene sugerencias, encuentra errores o puede facilitarnos plugins,  a propósito del Thank a Plugin Developer Day, es bienvenido, ya que hay casos exitosos de implementación de Scriblio en instituciones como la Hong Kong University of Science and Technology, o Lamson Library de la Plymouth State University por mencionar algunos ejemplos.

Nunca había tomado un papel protagónico en mis actividades de networking o trabajo colaborativo en la web, pero estar al frente de este proyecto me ha gustado por la buena voluntad de todos los participantes. Espero así poder aportar algo al software libre que tantos beneficios me ha dado, pienso que es una de las pocas oportunidades para aquellos que no tienen oportunidad.

¿Será muy dificil que las bibliotecas colombianas aparezcan en Worldcat? Aquí les dejo el enlace donde pueden hacer parte de Worldcat por si les interesa, parece que tiene buenos beneficios.

Categorías
Ciencia de la información

Semapedia.org // Enlazando la realidad con la web mediante móviles

Código de barras 2D
Código de barras 2D o QR code de Hiperterminal.com

Hace algún tiempo he venido cruzándome con este tipo de imágenes. Lastimosamente no he visto ninguna de estas más que en la web y la razón es muy simple: No tenemos la tecnología suficiente para leerlas.

¿De qué se trata? Pues es muy simple: Enlaza un sitio real con un sitio web mediante un lector de código de barras 2D. Por ejemplo en este cuadro expuesto en Nueva York:

Obama y Semapedia
Obama y Semapedia

Si se fijan al lado izquierdo hay un pequeño adhesivo. Ampliado se ve así:

Semapedia - Código 2D
Semapedia - Código 2D

Yo hice la prueba con un Blackberry Curve 8310 (gracias a mi jefa que me lo prestó) y estuve navegando por Semapedia.org que es un sitio que te permite generar el código en 2D a una página de Wikipedia. Allí encontré el software que requería para leer este código; se trata del BeeTagg que luego de ser instalado captura el código mediante la cámara fotográfica para luego remitirte al sitio web que enlaza. En el caso del código en el cuadro de Obama lleva a este sitio de Wikipedia modificado especialmente para móviles. En conclusión ese código en 2D es un link, exactamente es un código QR.

¿Cuánto tiempo tardará en llegar esa tecnología a un país como Colombia? No conozco mucha gente que tenga este tipo de celulares, (¿qué más diciente que para poder leer este código tuve que pedir prestado un celular?) mucho menos personas que usen los stickers para dejar enlaces a Wikipedia mediante Semapedia, aunque sería bastante interesante que esto ocurriera. A pesar de que internet móvil está creciendo todavía hace falta esperar un poco para que este tipo de tendencias surjan en un país tercermundista como el nuestro. Una prueba más de la brecha digital.

Entre otros sitios que encontré está Tigtags.com quienes se dedican a generar códigos en 2D no solo para Wikipedia como lo hace Semapedia. Entre los estudios de casos de este sitio se encuentra una aplicación de Facebook para agregar amigos mediante el código.

Add to friends gear app on Facebook
Add to friends gear app on Facebook

¿Qué te parece? ¿Has visto el código en algún lugar? ¿lo usarías?

Aquí un blog en español dedicado a los códigos QR

Categorías
Ciencia de la información

Adaptando la catalogación a las nuevas tecnologías // Metadatos y RDA

Presentación de Anansi

El texto escrito el 21 de agosto de 1998 titulado «Catalogación versus metadata: ¿Vino viejo en odres nuevos?» [1] habla sobre el cambio de paradigma y las ideas que suponían esta nueva manera de describir los documentos, el dejar de lado el uso de las fichas bibliográficas y su tradicional información allí almacenada para migrar a OPACS e implementar el uso de metadatos para describir los cada vez más abundantes documentos electronicos.

Entre las posibilidades que se enunciaban para reaccionar ante la llegada de los metadatos estaba el catalogar como si nada hubiera pasado, mantener la estructura usada en catalogación en los metadatos, pero evidentemente estos modelos son bastante diferentes y hasta opuestos. El primero fue pensado en un principio para documentos en una biblioteca y el segundo es usado para hallar un documento en una red. Al menos la experiencia obtenida al desarrollar la catalogación debe dar luces sobre los errores cometidos para no repetirlos en el desarrollo de un modelo como el de los metadatos a la hora de automatizar una biblioteca o cualquier unidad de información.

Hasta el momento estos dos modelos parecen muy similares pero ¿Dónde está la diferencia?. Tim Berners Lee señaló que los metadatos estaban totalmente enfocados al uso de computadores y es ahí donde se separan estos modelos: El objetivo de la catalogación son los usuarios de una biblioteca, mientras que el objetivo de los metadatos son los desarrolladores de software, quienes tienen una herramienta más para que sus programas de computador recuperen documentos.

Otra característica que diferencia a los metadatos de la catalogación es que en el primero son los autores del documento quienes generan sus propios descriptores, mientras que el primero usa lenguajes estructurados para este fin.

Empiezan a notarse grandes diferencias en este punto. Ya vemos claramente que los metadatos se usan para encontrar recursos en una red, pero no para describirlos, cosa que si ocurre en la catalogación pero así mismo podría inferirse que la catalogación está orientada a describir el documento sin que le interesen las posibles búsquedas que el usuario realiza No pasa así con el modelo de metadatos Dublin Core, pero éste tiene un problema: Los usuarios son volubles y pueden variar su comportamiento y los metadatos que se incluyeron inicialmente pueden servir para un determinado contexto, pero este puede variar, así el metadato no aportaría en nada.

Otra característica de los metadatos es que tienen una referencia unívoca con un documento, las diferentes versiones y formatos no afectan esta relación, así mismo no se necesita un referencista que guíe al usuario hacia el documento porque puede obtenerse su ubicación de manera inmediata mediante un enlace o link  (que favorece a la hora de usar URN) pero de nada sirve si el enlace está roto, si esto ocurre los metadatos de un documento no sirve para nada.

Se mencionó el uso de Dublin Core simple y Dublin Core cualificado, lo que nos hace pensar en que se requiere la ayuda de terceras partes para validar su uso. Volvemos a un punto que seguramente ya superó la catalogación.

Subyace la idea de que los catalogadores antes que temer a este nuevo modelo deben seguir su evolución, porque de hecho no se trata de vino viejo en odres nuevos.

Como catalogadores estamos en la obligación de adquirir conocimientos sobre las diferentes maneras de manejar la información, la mejor manera de realizar nuestro trabajo es comparando. Hay quienes conocen la catalogación desde hace bastante tiempo y tienen sus reticencias a la hora de usar los metadatos, así mismo, empiezan a ejercer la profesión los nativos digitales, aquellos quienes no pueden concebir la vida sin un computador porque desde que tienen memoria pueden acceder a ellos. El conocimiento que se adquieren en el uso de uno o de otro modelo no debe ser una doctrina, es decir, podemos ser eclécticos y tomar lo mejor de cada modelo. No necesariamente son mutuamente excluyentes como lo demuestra el advenimiento de las RDA (Resource Description and Access) que sustituirán a las reglas de catalogación angloamericanas (RCAA2) y además de contar con el respaldo de la IFLA (International Federation of Library Associations) incluyen interoperabilidad con los metadatos [2]. Llegamos así a poner en el mismo nivel dos vertientes que se pensaban incompatibles.

Diez años después de la publicación de «Catalogación versus metadata» podemos ver los avances en el desarrollo del RDA que esta semana (exactamente el 2008-11-03) se publica el borrador completo del contenido del RDA para discusión como lo mencionan en su sitio oficial [3].  Como lo mencionó el maestro Ageo García en una conferencia recientemente para presentar el RDA en la Pontificia Universidad Javeriana, en esta ocasión latinoamérica tiene la capacidad de aportar, no solo de recibir los estándares y las reglas de catalogación para que las usemos sino que además podemos adaptarlas a nuestras necesidades y funcionar bajo estándares internacionales; oportunidad única para acortar la brecha informacional que de por si ya es bastante amplia.

Encontré que está en construcción este sitio: www.rdaonline.org


Referencias

[1] GRADMANN, Stefan. Catalogación versus metadata: ¿Vino viejo en odres nuevos?. [en línea]. [consultado 5 de nov. de 2008]. disponible en <http://www.ifla.org/IV/ifla64/007-126s.htm>

[2] BIBLIOBLOG. RDA, las nuevas reglas de catalogación. [en línea]. [consultado 5 de nov. de 2008]. disponible en <http://www.citafgsr.org/weblogs/biblioblog/archives/005827.html>

[3] JOINT STEERING COMITEE FOR DEVELOPMENT OF RDA. RDA: Resource Description and Access. [consultado 5 de nov. de 2008]. disponible en <http://www.collectionscanada.gc.ca/jsc/rda.html>

Categorías
Ciencia de la información

Veracidad y confiabilidad en internet // El día que me timaron

Recientemente me pidieron evaluar dos sitios web y dar mi opinión sobre cuál de los dos recomendaría a un estudiante de arte. El primer sitio es sobre Miguel Ángel, mientras que el segundo  trataba sobre Jacopo.

¿Qué pasos debería seguir para verificar su validez? A simple vista los dos parecían creíbles, pero empecé revisando los sitios que alojaban las páginas. Ahí encontré una pista que me pareció importante: la página de Michelangelo.com estaba plagada de errores, enlaces rotos y problemas de comunicación con la base de datos, mientras que la página de Jacopo estaba dentro del hosting de la Universidad de Michigan.

Paso dos: Revisar su contenido. La página de Miguel Ángel vendía posters, mientras que la de Jacopo hablaba sobre sus pinturas, la técnica empleada y su ubicación física. Si el usuario de la información era un estudiante de artes no le iba a presentar un sitio que le vendiera afiches.

Paso tres: Revisar el autor. Unos diseñadores de sitios web contra la Universidad de Michigan. ¡Nada que hacer! ¿Cómo no le iba a creer a la prestigiosa Universidad de Michigan?

Mi diagnóstico luego de revisar estos aspéctos es que la página de Miguel Ángel era falsa, mientras que la página de Jacopo era confiable. ¿Qué opinión hubieras dado?

Me faltó usar un recurso más: Buscar otros sitios que hablan sobre el artísta, en este caso, los sitios que hablan sobre Jacopo di Poggibonsi. Donde encontré una página no enlazada que develaba la verdad sobre éste artista.

Así como este experimento realizado por algunos estudiantes de la Universidad de Michigan para crear un artista falso hay varios sitios en la web con información falaz. Además, hoy en día cualquiera tiene la capacidad de publicar información en la web pero nadie está obligado a publicar información verídica. ¿A quién creerle? Lo que aprendí es que debo:

  • Verificar la autoridad de quien publica información.
  • Verificar el contenido, su calidad, profundidad, relevancia, etc.
  • Verificar la intención del autor.
  • Verificar otros documentos sobre el mismo tema.

Creo en el buen proceder de las personas por el dilema del prisionero que mencionó en un post anterior, pero no siempre la intención de un autor es comunicar la verdad.

Para terminar un pequeño ejercicio: ¿Qué opinan de Genpets.com?

Categorías
Ciencia de la información

Recuperación de información Distribuida y en Paralelo

No resultó fácil encontrar información sobre estos temas. Recomendación: Leer Modern Information Retrieval de Ricardo Baeza-Yates y Berthier Ribeiro-Neto. Capítulo 9.

Para hacer recuperación de información en paralelo se toman grandes colecciones de documentos, se indexan para poder recuperar cada partición del documento y almacenan en varios dispositivos, es decir, pueden existir un documento de 3 Gb almacenado en tres discos de 1Gb que se reconstruye a partir del index. Así, si tenemos una gran cantidad de documentos podemos realizar varias búsquedas simultáneas para recuperar diversos documentos almacenados en diferentes discos, no es necesario esperar a que un proceso termine para empezar el siguiente. Para esto Google usa la indexación de la web.

Mapas conceptuales de las redes sociales que conforman el ecosistema económico en Cleveland y Silicon Valley.
Mapas conceptuales de las redes sociales que conforman el ecosistema económico en Cleveland y Silicon Valley.

Descentralizado Vs. Distribuido

En cuanto a la recuperación de información distribuida un buen ejemplo es la blogósfera: Muchos nodos son capaces de producir, consumir e intercambiar información.  Se crean redes distribuidas que a diferencia de las redes centralizadas o las descentralizadas nunca van a estar incomunicadas dado que siempre habrá un camino que las una. El problema de la recuperación de información distribuida es su heterogeneidad: No sabemos qué formato nos vamos a enfrentar, su idioma o la calidad de su contenido. Para esto se usa el pagerank, para valorar la información y darle prioridad a la hora de recuperarla.

La diferencia entre Cleveland y Silicon Valley que mencionan en Nomada hablan sobre la paradoja del declive de Cleveland, ya que está altamente jerarquizada mientras que Silicon Valey presentan una topología de red distribuida que no necesariamente obedece a las jerarquías de sus nodos. Puede verse en la imágen que si un nodo central de Cleveland se desconecta dejará por fuera de la red a varios nodos que dependen de él.

[Actualización del 2008-10-28 con comentarios de clase del profesor Leonardo Machett]

Los militares usaron una tipología de red distribuida para comunicarse, dicha red evolucionó a Internet, la red de redes. Imagínese las búsquedas en una red centralizada, que además respondía a sus usuarios de manera secuencial, es decir, hasta que no se haya recuperado una solicitud de información no se puede realizar la siguiente bísqueda. Ahora imagínese que Google no podrá completar su solicitud hasta que se hayan respondido todas las solicitudes anteriores. ¿Cuánto tardaría?

Para poder responder varias consultas al tiempo se realiza la recuperación de información en paralelo.

Entre las características de la recuperación de información distribuida encontramos que la información almacenada puede ser heterogénea. Es decir, puede buscar cierta información que no se encuentra en texto como el usuario lo espera, sino que su formato está en audio.

Otra característica emergente de la recuperación de información distribuida son las difernecias entre el idioma en que se recupera la información y la profundidad de los contenidos recuperados. Quien escribe puede ser un experto en un tema o un principiante, inclusive un embustero (como ya lo comentaré en un post siguiente)


Referencias

ARCHITECTURE & LANGUAGE IMPLEMENTATION. Distributed and parallel information retrieval. [en línea]. [consultado 21 de oct. De 2008]. Disponible en  <http://www-ali.cs.umass.edu/Darch/>

BANCHERO, Santiago. Propuesta de plan de tesis [versión entregada]. [en línea]. [consultado 21 de oct. De 2008]. Disponible en <http://camaronbitmap.blogspot.com/2007/02/propuesta-de-plan-de-tesis-versin.html>

EXPLORADORES ELECTRÓNICOS. Topologías de red. [en línea]. [consultado 21 de oct. De 2008]. Disponible en <http://www.exploradoreselectronicos.net/e4pedia/Imagen:Topolog%C3%ADas_de_red.gif>

GARCIA-MOLINA, Hector y TOMASIC, Anthony. Issues in parallel information retrieval.[en línea]. [consultado 21 de oct. De 2008]. Disponible en <http://www.cs.cmu.edu/~tomasic/doc/1994/TomasicGarciaDEB1994.pdf>