lunes, 31 de octubre de 2011

Tendencias de los recursos de información en internet: Formato Dublin Core

Resumen[1]

“Se muestran diferentes tendencias que caracterizan las herramientas de búsqueda de información existentes en Internet con respecto a la utilización de los metadatos. Se aborda también el tema del empleo de los formatos normalizados de metadatos para la descripción de los recursos de información, con énfasis en los principios, las características y la codificación del formato Dublín Core en HTML”.

Palabras clave: Herramientas de búsqueda, metadatos, Dublin Core, HTML. 

Los usuarios de Internet se encuentran siempre inmersos en grandes volúmenes de información y cuya utilidad se ve cada vez más reducida, tanto por las características propias de los recursos digitales: volatilidad, inestabilidad, entre otros, como por carecer de semántica necesaria como para que las herramientas diseñadas para la búsqueda y recuperación de la información en Internet puedan recobrarlos según sean las necesidades. 

Estas herramientas se basan fundamentalmente en la automatización de tareas de clasificación e indización; la mayoría emplean un robot que se ocupa de recorrer constantemente la Web para clasificar y organizar automáticamente la información encontrada y confeccionar a partir de ella sus bases de datos. Este tipo de indización es, sin lugar a dudas, menos costosa que la indización humana, pero, a diferencia de esta última, la indización automática es bastante imperfecta y no puede identificar las características de los documentos (materia, autor, fecha de publicación), o distinguir el tipo de documento, por ejemplo, si se trata de un artículo o de un libro.

Todo esto se debe a que la mayoría de estas herramientas no soportan metadatos y, en los casos en que están preparadas para reconocerlos, la mayoría de los autores de páginas Web no los emplean en la creación de los documentos, bien sea por el desconocimiento de su importancia o de cómo hacerlo.

Si los autores de páginas Web utilizaran modelos de metadatos estándares para agregar una descripción en los documentos que ellos generan, se facilitaría, tanto el trabajo de las herramientas para la recuperación de información en la Web que reconocen metadatos, como de los usuarios que realizan esas consultas, quienes podrían valorar el contenido de los documentos sin tener la necesidad de acceder al original, y ahorrarse un tiempo valioso. 

En el contexto de Internet, existen diversos mecanismos o herramientas utilizadas para la recuperación de información, cada una de ellas, con tendencias diferentes hacia la utilización o no de los metadatos; entre las herramientas más destacadas, se conocen: los directorios o índices, los motores de búsquedas, meta-buscadores y portales temáticos. 

Los índices o directorios son las mismas listas de recursos, organizados en categorías temáticas por los expertos. 

Las categorías temáticas se organizan jerárquicamente sobre un árbol de materia que le permite descender desde las más generales a las más específicas, las categorías presentan una lista diversa de enlaces a las páginas Web referidas en el buscador. 

Los directorios son sistemas pre-coordinados de recuperación de información, que ofrecen inventarios de materias. Los directorios han comenzado a evolucionar hacia el mundo de los portales temáticos. El ejemplo más representativo de directorio hasta el momento es Yahoo (http://www.yahoo.com), que se ha convertido también en un portal, pero mantiene aún su estructura, según categorías. 

Es clave agregar que no se puede hablar en sentido estricto de metadatos asociados a este tipo de sistemas de recuperación de información en Internet, sin embargo, las categorías clasificatorias que establecen estos sistemas podrían entenderse como meta-información que anticipa, de algún modo, el contenido de los recursos clasificados al interior de cada tema, al agrupar la información en listas pre-coordinadas del encabezamiento de materia. 

La organización de los recursos que realizan estos directorios nos podría llevar a considerarlos sistemas de recuperación de información con organización de tipo bibliotecaria; porque aun cuando no son bibliotecas digitales en sentido estricto, sí se basan en criterios que son semánticos y de organización del conocimiento. 

Se puede hablar de metadatos estrictos, que están vinculados a directorios generales dado el caso del Open Directory Proyect (ODP) (http://dmoz.org), un directorio puro, que sirve para la clasificación cooperativa de información en RDF[2].

Los buscadores de información conocidos como sistema de recuperación de información en Internet Altavista, Excite y otros, son sistemas post-coordinados de recuperación de información, consistentes en bases de datos que son voluminosas, generadas a partir de la indización automática de los textos completos o de partes significativas de los documentos que son encontrados en Internet por los robots, que emplean principalmente unas técnicas de análisis estadísticos y ponderación. 

En opinión de Méndez, los metadatos que se consideran en la indización -y en su caso, en el cálculo de relevancia-, son los que se denominan meta-etiquetas o meta-tags, creadas como estructuras genéricas de meta-información (cabeceras HTML) por los autores o editores de los recursos Web. 

1.   Si estos sistemas utilizan metadatos HTML para indizar (AltaVista, Hotbot, MetaCrawler, Inktomi, Infoseek, entre otros), lo hacen sobre valores básicos (Description, Keywords) de las meta-etiquetas HTML o a lo sumo las meta-etiquetas author u otras partes del documento HTML que puedan entenderse en cierto sentido, como meta-información.

2.    No existe un acuerdo sobre los motores de búsqueda que utilizan las etiquetas <META> para el cálculo de relevancia de sus búsquedas, porque habitualmente el funcionamiento interno de los buscadores es transparente para los usuarios y los propios creadores de este tipo de software tampoco realizan mucha publicidad sobre las funcionalidades. 

Rodríguez Gairín , en un artículo escrito sobre el buscador AltaVista, plantea que muchos motores de búsqueda emplean la información que está almacenada en los meta-elementos para crear sus índices y permitirle al usuario un acotamiento por campos, y que posibilite que el ruido generado por la indización del texto completo pueda reducirse fácilmente[3].

3.   En el caso de Altavista, por el momento, sólo utiliza la metainformación almacenada en “KeyWords” para generar sus índices y la almacenada en Description para elaborar el breve resumen que presenta en la hoja de resultados. 

En opinión de Koch, los sistemas de recuperación globales que se basaban, de alguna forma, en metaetiquetas HTML para la indización eran: Altavista, Infoseek, SwistSearch, Hotbot, Webcrawler, los motores de búsquedas de información en alemán, Aladin y Eule y los sistemas de recuperación de información en Internet especiales para metainformación, Fireball, Polish Academic Web Index, Hotmeta Search Engine (que indizaba metadatos DC) y Nordis Metadata Index -que indizaba los modelos IAFA, DC y Gil[4].

Publicado por Nubia Cortés y Myriam Gil.




[1] Fuente (Vancouver): Daudinot Founier, Isabel. Descripción de los recursos de información en Internet: formato Dublín Core. Acimed 2006;14(4). Disponible en: http://bvs.sld.cu/revistas/aci/vol14_4_06/aci09406.htm Consultado: día/mes/año.
[2] Méndez Rodríguez EM. Metadatos y recuperación de información: estándares, problemas y aplicabilidad en bibliotecas digitales. Gijón: Trea; 2002.
[3] Rodríguez Gairín J. M. Valoración del impacto de la información en Internet. Altavista, el “Science Citation Index” de la red. Revista Española de Documentación Científica 1997;20(2):175-181. Disponible en: http://bd.ub.es/pub/rzgairin/altavis.htm [Consultado: 8 de enero del 2006].
[4] Koch T. Documentation to: metadata Indexing and searching in large search. 1998. Disponible en: http://www.lub.lu.se/~traugott/Mdsearch-docu.html [Consultado: 15 de enero del 2006].

La labor de los especialistas o intermediarios de la información

Hace mención a los profesionales y aquellos especialistas en recuperación de información los cuales deben tener en cuenta que problemas se enfrentan para resolver y qué técnicas y conocimientos deben poseer para hacer posible esa búsqueda y recuperación de la información. Estos especialistas conocidos también como intermediarios, son aquellas personas con capacidades y habilidades para conocer esa necesidad de la información real del usuario y para la posterior búsqueda y recuperación en diferentes SRI y bases de datos.

Con el fin de hacer posible la satisfacción de la información a los usuarios por parte de los especialistas de información o intermediarios, ellos pueden ayudar a diagnosticar el problema del usuario y a formular la consulta, sugieren los sistemas o bases de datos que sean apropiadas para la búsqueda, traducen la consulta en estrategias de búsqueda adecuadas para el sistema o bases de datos a utilizar, y realizan o modifican la búsqueda, evalúan los resultados, proporcionando al usuario los resultados adecuados y le aconsejan sobre las actividades que deben realizar posteriormente.

1. El proceso de búsqueda:

Es la actividad principal que realiza el especialista en recuperación de información. En dicho proceso se reflejan los conocimientos que deben poseer, las tareas y problemas a resolver y las técnicas a emplear, todo encaminado en lo posible a la satisfacción de necesidades de un usuario en general.

El proceso de búsqueda, según Bárbara Quint, se dividen en siete etapas:

1.1. Entrevista de referencia: Esta entrevista es realizada entre el usuario y el profesional de la información con el propósito de que sea determinada  la necesidad de información solicitada, y es aquí donde entra a jugar la interacción y búsqueda de información por parte del profesional de información, utilizando las herramientas que sean necesarias para efectuar la búsqueda y obtener los resultados esperados por el usuario.

1.2. Revisión táctica: esta fase consiste en la revisión de la revisión de respuestas obtenidas por el usuario para efectuar la búsqueda, en donde se analizan todos aquellos aspectos que influyan en ese proceso de búsqueda.

1.3. Selección de la(s) base(s) de datos: aquí el profesional de información valora las características de búsqueda que están disponibles en cada sistema o herramienta (catálogos, bases de datos, directorios, boletines, entre otros).

Después de determinar las características de cada una, se elige una o algunas de ellas que tenga relación con la información que se ha solicitado.

1.4. Formulación de estrategia de búsqueda: la finalidad de ésta etapa es traducir la petición que hace el usuario en las sentencias de búsqueda que se van a introducir en la herramienta elegida para tal fin.

Esta búsqueda exige una serie de pasos:

• Análisis conceptual del tema de búsqueda y determinar los conceptos más relevantes.
• Elegir los términos que mejor han de representar la petición de información.
• El profesional debe escribir en el lenguaje del sistema que vaya a utilizar, las sentencias de búsqueda; establecer relaciones lógicas entre los términos buscados utilizando los interfaces de búsqueda que posea el sistema empleado.

1.5. La búsqueda de información: una vez diseñada la estrategia de búsqueda, se ejecutan las búsquedas en el sistema que ha sido elegido. Puede que se encuentren resultados satisfactorios en la búsqueda,y caso contrario, el profesional de información debe crear nuevas estrategias, con el objetivo de mejorar y conseguir esa información que el usuario necesita.

1.6. Feedback o revisión de los resultados: el profesional de información revisa los resultados obtenidos en el sistema. Si los resultados no son suficientemente relevantes, se revisa y se modifica esa estrategia de búsqueda utilizando otros términos y otras bases de datos.

1.7. Presentación de los resultados de la búsqueda: cuando el profesional de información hace entrega de los resultados de búsqueda al usuario, debe explicarle al usuario qué fuentes consultó, que estrategia de búsqueda utilizó y los registros que encontró, asegurándose que el usuario comprenda e interprete plenamente la información

Publicado por: Nubia Cortés

Sistemas que recuperan información

Cualquier información invita a los usuarios dotar de instrumentos de consulta, navegación y recuperación de información adecuados para satisfacer las necesidades de información. Sin embargo, existe una gran explosión documental y no sabemos cuál de éste gran volumen de documentos e información es útil y se pueda recuperar de una forma más fácil y que cumpla con unos ciertos requisitos durante su búsqueda.

Existe gran variedad de herramientas que permitan hacer búsquedas de información que sean efectivas y que contengan conocimiento intelectual, válido para la investigación y el aprendizaje; estas herramientas se resumen en cuatro siglas o en el mejor de los casos, en cuatro palabras: Sistemas Gestores de Bases de Datos – SGBD.

Estas herramientas se dividen en tres fases, por medio de las cuales permiten y facilitan el acceso y la recuperación de la información:

1- Sistemas de navegación de tipo jerárquico: este sistema permite estructurar jerárquicamente a información: clases y subclases, y es aquí donde el usuario decide qué opción se ajusta a las necesidades de información(ejemplo:www.yahoo.com)

2- Sistemas de navegación hipertextuales: Sistema de búsqueda permite que el usuario vaya de un documento a otro con solo dar un click al activarse los vínculos estipulados en el mismo para tal fin.

Por otra parte, el documento hipertextual está formado por bloques o partes que se interrelacionan entre sí, con un orden establecido que permita re permita recorrer diversas direcciones web.

3- Sistemas de recuperación de información: aquí no se emplea la búsqueda a través de navegadores, sino que este tipo de búsqueda se hace por medio de un conjunto de operadores y también  instrucciones específicas que hacen posible efectuar la búsqueda de información más detallada y relevante.

La base de la recuperación de información en los sistemas informáticos se emplea el uso de álgebra booleana o también llamadas ecuaciones de búsqueda, en donde se hace combinaciones de búsqueda de términos o documentos mediante los operadores de unión, intersección y negación.

Publicado por: Myriam Gil

domingo, 30 de octubre de 2011

Metadata : combining content-based and metadata-based approaches

Autor
DAY, Michael
Titulo
Metadata : combining content-based and metadata-based approaches
Fuente
Report from the Second UK Conference on Image Retrieval held in Newcastle on the 25-26 February 1999
Soporte
Resumen
Estudia la recuperación de imágenes en la WWW basada en el contenido.
P. Clave
imagen; recuperación; world wide web; metadatos

Introduction
"Image[1]-based information is a key component of human progress in a number of distinct subject domains and digital image retrieval is a fast-growing research area with regard to both still and moving images. In order to address some relevant issues the Second UK Conference on Image Retrieval - the Challenge of Image Retrieval (CIR 99) was held in Newcastle upon Tyne on the 25 and 26 February 1999 [1]. Participants included both researchers and practitioners in the area of image retrieval".


The Tyne Bridge, Newcastle upon Tyne[2].




[1] CIBERABSTRACS. Directorio de recursos sobre el resumen. María Pinto. Consulta en línea: http://www.mariapinto.es/ciberabstracts/recumeta.php?pagina=2&criterio=recumeta

domingo, 23 de octubre de 2011

TUTORIAL GOOGLE DESKTOP

1.     Se procede en primera estancia ingresar al sitio www.google.com



2.     Se procede a acceder al sitio sugerido por el Navegador para realizar el proceso.



3.     Se acepta un término de licencia acerca del uso de dicha herramienta.




4. Se procede a guardar el archivo en la carpeta de descargas del equipo de trabajo.




5.  Se ejecuta la aplicación de acuerdo a la descarga realizada.




6. La aplicación muestra en pantalla las funciones de la aplicación que se van a cumplir en el momento de la instalación de la aplicación en el equipo.




7. Se determinan las preferencias acerca de que necesito como usuario para que funcione la aplicación.




Configuración
Para realizar la configuración de la aplicación para poder realizar el proceso de indexación se procede al costado derecho de la pantalla para determinar que opciones se requieren para poder hacer uso de la herramienta.



Se procede a configurar las opciones que muestra la aplicación para continuar con el uso de la herramienta



Posteriormente se procede a determinar las carpetas que se van a utilizar para realizar el proceso de indexación.





Después de haber seleccionado los archivos donde se desea realizar las búsquedas, se procede a guardar las preferencias de las referencias que se encuentran tanto en la parte inferior como en la parte superior de la página.






Publicado por: Myriam Gil

jueves, 20 de octubre de 2011

Tutorial Archivarius 3000

Archivarius 3000 – es una aplicación completa para buscar documentos y correos electrónicos en un computador, en una red local y en unidades removibles (CD, DVD). Los documentos pueden ser buscados por palabras clave o utilizando un lenguaje de consulta, al igual que los motores de búsqueda de la Internet[1].

Principales características incluidas

§  “Búsqueda instantánea de textos completos de documentos o correos electrónicos.
§  Búsqueda contextual con morfología en 18 idiomas.
§  Soporte de Redes locales (LAN) y unidades removibles (CD, DVD y otras).
§  Soporte de formatos de archivo populares, búsqueda de documentos MS Office, PDF y TXT.
§  Búsqueda de documentos en ficheros ZIP, ACE, RAR y otros.
§  Búsqueda en mensajes de correo de Outlook, Outlook Express, MS Exchange, Netscape, PocoMail y The Bat! junto con sus archivos adjuntos.
§  Búsqueda remota y acceso de documentos vía Internet.
§  Soporte completo de codificación Unicote”[2].

INSTALACION DE LA HERRAMIENTA ARCHIVARIUS 3000

En Google se busca ARCHIVARIUS 3000 GRATIS y se da clik


Se escoge la opción descargar gratis dando clik



En el siguiente pantallazo se la opción descarga gratis

                              

Aparece una ventana que pregunta si desea ejecutar el archivo



Se da clik en ejecutar, aparece un pantallaza para escoger el idioma y se le da Ok.



Aparece una opción que lo guía en la descarga del programa, ofrece Información que uptodown le garantiza la existencia del archivo y su seguridad, en Inicio y se le da la opción siguiente



En Componentes se le da la opción siguiente



Empieza a descargar



Aparece el asistente de instalación





El acuerdo de licencia




Acepto, siguiente e instalo y finalizar



Publicado por: Myriam Gil


[1] Archivarius 3000 Tecnologías Lingüísticas del Futuro. [en línea]. [Consultado: 01/10/11]. Disponible en: http://www.likasoft.com/es/document-search/
[2] Ibid [en línea].


miércoles, 19 de octubre de 2011

Sistemas de Información y Documentación, Archivística y Bibliotecología en la Universidad de la Salle



Con el firme propósito de preparar profesionales para que salgan al mundo a enfrentar la posibilidad de reducir todas las brechas posibles y existentes en el medio de la información, desde un tiempo atrás se ha venido motivando a los estudiantes a desarrollar prácticas que le permitan entender las necesidades del usuario de información y las diferentes formas de llegarle para obtener resultados efectivos y bien valorados acerca de los términos utilizados en la búsqueda o las popularmente llamadas palabras clave.




http://t0.gstatic.com/images?q=tbn:ANd9GcT5z3s6LWsvtr4ckIdltVjc_UwSXanvbkZaKgUHt6YaipL4jzX98w


Las prácticas consisten en conocer diferentes medios que facilitan la búsqueda de términos relevantes poniendo al estudiante en el rol de usuario activo, donde además de hallar la información, promueva el acceso a la misma. Para ello es necesario acceder a Blogger para crear un blog que de acuerdo al adecuado manejo y estructura general,  permita manejar el posicionamiento y el diseño de la información haciéndolo práctico y entendible a diferentes criterios de usuarios.


Se debe realizar un análisis de información que permita considerar resultados estructurados y que reflejen los niveles de relevancia o de importancia da cada una de las palabras que se han escogido para desarrollar la actividad.

La Universidad de la Salle ofrece los recursos físicos que permiten asociar la teoría con la práctica y conformar ecuaciones de búsqueda, que una vez utilizadas, constituyen un control útil para la demanda documental que hoy en día abarca para la institución ciertos niveles de importancia y genera posicionamiento y renombre para la construcción de un buen trabajo académico.

Publicado por:

http://t0.gstatic.com/images?q=tbn:ANd9GcT5z3s6LWsvtr4ckIdltVjc_UwSXanvbkZaKgUHt6YaipL4jzX98w

lunes, 17 de octubre de 2011

Fuentes de información en Recuperación de Información


Las revistas[1]
Actualmente son un medio muy práctico utilizado, ya que periódicamente ofrece información variable y actualizada sobre trabajos originales, revisiones, síntesis, congresos y reuniones de cualquier lugar del mundo. Además cada una de las publicaciones sobre un tema específico permite hacer un seguimiento a la evolución o trayectoria del mismo y así poder actualizar los conocimientos de una forma adecuada.

Revistas online de recuperación de información
Están dirigidas principalmente a profesionales y expertos en la búsqueda de información online con el fin de apoyar procesos investigativos, académicos y especializados. Algunos ejemplos de ellos serán relacionados a continuación y que desde el año 2008 hacia el presente han sobresalido en la web:

  •  En Econtent, antes llamado Database que comenzó a publicarse trimestralmente en septiembre de 1978 y pasó a ser bimestral en 1986. Además de artículos de investigación ofrece alternativas como análisis de noticias, productos, compañías, y columnas que analizan las últimas tendencias en la industria digital. La mayoría de sus autores son de Estados Unidos, sus columnas son relevantes a nivel internacional y ofrece los avances que se producen en la industria de contenidos digitales.
http://www.ecmag.net/Images/econtent1.gif
  • Information today, contiene noticias y desarrollos relacionados con la industria online, nuevas bases de datos, información de compañías, nuevos productos y servicios. Contiene secciones especiales sobre internet, bibliotecas, temas legales y propiedad intelectual. Es accesible electrónicamente desde octubre de 1998.
http://www.infotoday.com/pics/2006/logo.gif
  • Information World Review, publicada mensualmente y reconocida como una de las mejores fuentes de referencias y noticias sobre el mundo de la información online, haciendo especial énfasis en Europa y en Gran Bretaña. Contiene artículos, noticias, comentarios, recursos y personas de la industria online. Se publica desde 1974.
http://www.iwr.co.uk/_design/logo.png



Publicado por: Nubia Cortés



[1] Salvador Oliván, José A. Recuperación de la Información. Alfagrama ediciones. Capítulo 10.1ra edición, junio 2008. Argentina

miércoles, 12 de octubre de 2011

Review of Information Science (IS) perspectives

Autor: CHAN, Soon Keng; FOO, Schubert

Título: Interdisciplinary Perspectives on the Qualities of Abstracts for Information Retrieval.

Resumen[1]
“Eso permite a los escritores iniciados producir resúmenes para publicaciones o conferencias. Los resúmenes son un elemento importante para la recuperación de información. Es necesario que ambas disciplinas colaboren en investigaciones futuras”.

P. Clave
Resumen; calidad; recuperación de la información

“During the 60s and 70s, advanced technologies in information transfer methods have enabled a proliferation of information on the electronic information systems (Lorenz1969). Users were faced with problems of having to filter out constant streams of information inundating their systems, and the abstract, which is a 'mini' version of the full document, became a useful surrogate tool for quick and effective information retrieval. The 80s (Hills 1983) and 90s were landmarks that saw further technological advancements in high-speed computerization and later the Internet facilitated even more widespread and expedient information retrieval. Although information in full texts can now be efficiently retrieved and free text searching is possible, information experts like Pinto and Lancaster (1999) confirmed that abstracts are still useful and explained how full texts often contain details that cloud efficient identification of significant and precise information. Chowdhury, (1999) and Fidel (1986) added that availability of full-text and multimedia information in digital forms has increased the importance of the abstract in scholarly publications.

Consequently, information science writers paid great attention to producing guides to effective abstracting. They include writers who are experts on indexing and abstracting (Collision 1971; Borko and Bernier 1975; Rowley 1982; Cleveland and Cle veland 1983; and Lancaster 1991). Together they summed up the characteristics of a good abstract as one that has brevity, accuracy and clarity, but the over riding criterion of an abstract is whether it serves the needs of the users.

Other information professionals followed up with institutionalized standards, the most significant being American National Standard Institute commonly called ANSI Z39.14-1979, and International Standards ISO 214:1976. Such prolific literature on prescriptions for abstract writing belies the great concern of information professionals or experts in evaluating the quality of abstracts and on regulating the production of this surrogate.

A number of studies were conducted to assess readability using readability formulas, comprehension measures, or both. Dronberger and Kowitz (1975) suggested that the measurement of readability could provide an assessment of one phase of an information system. They explored abstracts published in Research in Education (RIE), and whose full documents were stored in Educational Resources Information Center (ERIC). Results showed that the reading level of abstracts was significantly higher than the reading level of source documents because of its concise nature and condensed information. However, it also showed that readability measurement does provide a useful technique for evaluating abstracts. Tenopir and Jacso (1993) measured the quality of abstracts based on style and readability, the extent to which the ANSI standard is observed, and exhaustivity of the abstract. They found that passive voice, prepositions, too many sentences per paragraph, too many words per sentence, and too many syllables per word all lowered readability. However, exhaustivity or extent of content coverage of source documents could not be so easily tested because of individual user needs.

In more recent studies, information professionals (Wheatley and Armstrong 1997) have conducted several major studies on abstract production for online services, a direction to which the ESP researcher may need to shift. Finally, Pinto and Lancaster (1999) based their study on judging the quality of authored abstracts in terms of exhaustivity, accuracy, readability, cohesion, brevity, and cost. They found that although the computer has enabled easy availability of full texts in electronic forms this has not reduced the value of human produced abstracts”.

Soporte: Archivo PDF Para mayor información consultar la página web:


Publisher for: Nubia Cortés




[1] CIBERABSTRACS. Directorio de recursos sobre el resumen. María Pinto. Consulta en línea: http://www.mariapinto.es/ciberabstracts/recumeta.php?pagina=2&criterio=recumeta