miércoles, 2 de marzo de 2016

Compilación bibliográfica sobre Recuperación de Información

Los profesionales de la información y los estudiantes de carreras afines debemos mantenernos al tanto de las novedades relativas a las temáticas de nuestro campo de estudio y de acción. Por eso hoy comparto una compilación bibliográfica que hice para la Licenciatura en Bibliotecología y Documentación de la Universidad Nacional de Mar del Plata. La idea es que sea útil para todos los interesados en documentos sobre recuperación de información.







Abstract:  La recuperación de la información es una de las disciplinas que más avances han experimentado en las últimas décadas. Su campo de actuación a día de hoy es inmenso. No es ya sólo de imprescindible aplicación en cualquier tarea de desarrollo, estudio o investigación científico-tecnológica, sino que se ha convertido en uno de los pilares sobre los que se basa la llamada sociedad de la información. La enorme cantidad de información de la que hoy en día se dispone, principalmente debida al abaratamiento de los soportes y a su cada vez mayor capacidad de almacenamiento, exige de mecanismos de recuperación de contenidos eficientes y eficaces. Sobre todo, ahora, cuando más que nunca se concibe la información y el acceso a ella como un derecho de la sociedad contemporánea. A todo ello se le debe sumar la evolución del perfil de los usuarios de la Web, siendo parte activa en su construcción y añadiendo, a cada segundo, nuevos contenidos ya sean en redes sociales, blogs, foros o páginas personales. En el presente proyecto la recuperación de la información ocupa un lugar primordial con el propósito de identificar y recuperar la información almacenada en archivos de vídeo partiendo de sus previas transcripciones, proporcionando un nuevo espacio de búsquedas. Asimismo, este proyecto ha sido posible gracias a la evolución de las tecnologías de desarrollo web y de las Rich Internet Applications, con la inclusión de AJAX y la eficiencia y eficacia de las comunicaciones entre cliente y servidor como puntos centrales de su implementación.





Abstract: El objetivo de este proyecto será el exponer técnicas y métodos para mejorar el Posicionamiento Web, realizando una introducción sobre numerosos conceptos y nociones previos necesarios p ara facilitar el entendimiento por parte del lector Objetivos específicos de este estudio serán: Exposición de conocimientos previos y relativos a las técnicas de Posicionamiento Web. Análisis sobre el funcionamiento de los buscadores y motores de búsqueda asociados , de modo que se puedan entender a posteriori las técnicas empleadas para mejorar el Posicionamiento Web sobre los buscadores. Descripción sobre los diversos factores que pueden afectar al Posicionamiento Web de un sitio o  . Estos son factores de tiempo, factores en la página y factores externos. Técnicas fraudulentas. Guía general y ciclo de vida del Posicionamiento Web







Abstract: Se define la técnica de la infografía, su objetivo como herramienta de divulgación de información; y los beneficios al posicionamento web (Traffic Rank y PageRank)


  • Argudo, S., & Pons, A. (2013). Mejorar las búsquedas de información (1a. ed.). Cataluña: Universidad Abierta de Cataluña. Retrieved from https://books.google.com.ar/books?hl=es&lr=&id=LzrFAgAAQBAJ&oi=fnd&pg=PT3&dq=%22sistemas+de+recuperacion+de+informacion%22&ots=flQEKwVaGG&sig=0Es7xgoLVrLRLMGrnDDJragnfRY

Abstract:  Es un libro que ayuda a conocer mejor el comportamiento de las bases de datos y motores de búsqueda para mejorar nuestras búsquedas en internet, así como también optimizar la organización de la información que vamos acumulando a lo largo de nuestra vida.


  • Ariza Ladino, C. F. (2012). Sistema de Recuperación de Información Utilizando Índices Combinados de Términos y Extracción de Información. bdigital.unal.edu.co. Universidad Nacional de Colombia. Retrieved from http://www.bdigital.unal.edu.co/7020/

Abstract: En este trabajo se presenta un sistema de recuperación de información basado en índices combinados de términos y extracción de información. Este sistema utiliza entidades nominales y correferencias para enriquecer a un índice combinado de términos, con el fin de disminuir el tiempo de búsqueda requerido para solucionar consultas basadas en frases y obtener mayor cantidad de documentos solución. Para esto se hace uso de un índice de frases parciales que almacena n-gramas basados en entidades nominales y palabras de alta frecuencia. El sistema también posee un modelo de clasificación jerárquica de documentos recuperados que asume que la consulta es un único término. Los resultados obtenidos demuestran que el uso del índice de frases propuesto como alternativa del índice de frases parciales tradicional permite disminuir el tiempo de búsqueda para las consultas que contienen entidades nominales y que la resolución de correferencias en los documentos tiene gran potencial para mejorar la medida de recuerdo del sistema.


Abstract: El web crawler constituye una parte importante de la cadena documental en la recuperación de información, dado que genera el corpus documental necesario sobre el que aplicar los distintos algoritmos de recuperación. Dada su relevancia, se analiza el papel que desempeñan, sus distintos enfoques, aportaciones significativas y estado de la técnica. Algunas de las conclusiones obtenidas, apuntan a la introducción del reconocimiento del marcado semántico en la web, al desarrollo de un web crawler más polivalente, capaz de interactuar con la web social y realizar campañas de comunicación.


  • Blázquez Ochando, M. (2013). Técnicas avanzadas de recuperación de información: Procesos, técnicas y métodos. Madrid: mblázquez.es. Retrieved from http://eprints.ucm.es/31307/1/ebook-mbo-tecnicas-avanzadas-recuperacion-informacion1.pdf
 
Abstract: ¿Qué son técnicas avanzadas de recuperación de información? Son todos aquellos procesos destinados a la recuperación de información, desde la generación de las colecciones, su depuración, indexado, tratamiento textual, clasificación, almacenamiento, recuperación mediante modelos booleanos, vectoriales, probabilísticos, basados en el lenguaje, así como todos aquellos elementos que inciden en cualquier aspecto relacionado como por ejemplo el interfaz de consulta, el comportamiento del usuario, la retroalimentación de las consultas y la representación de la información. Todos estos aspectos de la recuperación de información serán tratados desde la óptica de la Documentación. Esto implica un enfoque práctico y menos teórico, con el que se pretende enseñar la forma en la que actuan tales componentes, su interrelación, aplicaciones reales a la recuperación en la web, su aplicación en motores de búsqueda, catálogos bibliográficos OPAC, así como otras aplicaciones bibliográfico-documentales e informacionales. En este sentido el presente curso representa una guía eficaz y directa para comprender cómo aprovechar tales técnicas e implantarlas en casos reales.


  • Bosch, M. (2012). Web semántica, Web 3.0 y, Web 3.0 y entornos Cloud Computing, nuevos horizontes para bibliotecarios, documentalistas y archivistas. Abuc.org.ar. Córdoba: Acuerdo de Bibliotecas Universitarias de Córdoba. Retrieved from http://www.abuc.org.ar/portal/archivos/Microsoft PowerPoint - 2MelaAbucSemantica_Documentos.pdf


Abstract: Es una presentación de diapositivas para un seminario. Se centra en la importancia de la semántica para la recuperación de la información. Menciona la diferencia entre la web superficial y la web profunda y entre un modelo relacional de búsqueda de información y un modelo conceptual



Abstract: Los autores presentan los principales interrogantes de la Web 3.0, analizan las características de los sistemas bibliográficos estructurados con el modelo entidad-relación. Definen los niveles conceptual, lógico y físico en los sistemas informáticos; presentan las características de los FRBR y se observan las relaciones entre obra y documento en el modelo conceptual FRBR. Se describen los FRBRoo como una interpretación con una lógica de objetos de los mismos requerimientos funcionales. Finalmente se plantean las tendencias a futuro, tales como pasar de las modelizaciones de entidad-relación a la de objetos, la explicitación con anotación semántica consistente, el mapeo de bases bibliográficas existentes y el desarrollo de ontologías para que los sistemas documentales se integren en la Web Semántica



  • Bueno Vallejo, D. (2002). Recomendación personalizada de documentos en sistemas de recuperación de la información basada en objetivos. Universidad de Málaga. Retrieved from http://www.lcc.uma.es:8080/repository/fileDownloader?rfname=LCC1034.pdf

Abstract: Los sistemas de recuperación de la información surgen de la necesidad del hombre de organizar la información contenida en bibliotecas para poder localizar todos los documentos contenidos en ellas. En la actualidad todo el que se conecta a la Web está en contacto con sistemas como Altavista, Google o Yahoo. El problema de estos buscadores es que a veces devuelven cientos o miles de resultados de los que el usuario sólo va a considerar los 20 o 30 primeros. La ordenación que realizan devuelve los documentos Web que mejor corresponden a la consulta, pero eso no quiere decir que sean los más interesantes para el usuario. Muchas veces el usuario no experto encuentra dificultades en expresar su necesidad de información en el lenguaje de consulta que le ofrece el sistema, con lo que no encuentra los documentos aunque éstos estén en el sistema. Una posible solución al problema de recuperación de la información viene dada por la aplicación de un modelo del usuario que permita ofrecer una respuesta personalizada de acuerdo a las preferencias y necesidades de cada individuo. Los aspectos más importantes a adaptar estarán relacionados con la ordenación de los resultados de acuerdo a las necesidades del usuario y con las facilidades ofrecidas para realizar las búsquedas. Esta tesis ofrece resultados relativos al estudio de la personalización en los sistemas de recuperación de la información. Se ofrece una nueva visión de la personalización en estos sistemas orientada a los objetivos del usuario, frente al refinamiento de consultas utilizado en otros sistemas. La mayoría de los sistemas que ofrecen algún tipo de personalización suelen tener una visión general de los intereses de los usuarios y tienen un único modelo para cada usuario. En el enfoque propuesto, un usuario puede tener diferentes intereses que no tienen porque guardar relación. De esta forma, cuando esté interesado en un objetivo, sólo se le ofrecerán documentos relevantes para éste. En esta tesis se ofrecen algoritmos probabilísticos que permiten aplicar personalización basada en objetivos a distintas bases de datos multimedia o documentales, teniendo en cuenta múltiples parámetros de los datos. Además, se ofrecen mecanismos que permitan hacer análisis complejos de la base de datos sin necesidad de conocer su contenido. En el caso en que el usuario no sea capaz de encontrar documentos que le satisfagan, se ha desarrollado una arquitectura para que el usuario encuentre un apoyo de otros usuarios del sistema a través de Internet. Por último se ha comprobado la validez de la aportación mediante la implementación de un sistema, METIORE, que incluye las propuestas anteriores y que ha sido evaluado en entornos de aplicaciones convencionales y en entornos webs aplicados a diferentes bases de datos de referencias bibliográficas.



Abstract: El diseño de sistemas de recuperación de información en forma automatizada debe responder a las expectativas de los usuarios. Es necesario identificar de manera integral las necesidades de información de los usuarios y buscar que la automatización de los servicios bibliotecarios y de información apoye en el logro y satisfacción de éstas. Debido a diversos factores existentes en torno a las unidades de información, pero principalmente los económicos, no es conveniente automatizar un servicio o diseñar un sistema de recuperación de información de manera automatizada sin saber qué necesidades del usuario se pretende satisfacer.



Abstract: Es un trabajo final presentado para la materia Tecnologías de la Información y las Comunicaciones, perteneciente a la Maestría en Bibliotecología y Ciencias de la Información dictada por la Facultad de Comunicación de la Universidad de la Habana. Describe las posibilidades que brinda la inteligencia artificial para mejorar la recuperación de información


  • Chinchilla Arley, R., & Fernández Morales, M. (2012). Bibliotecas automatizadas con software libre: establecimiento de niveles de automatización y clasificación de las aplicaciones. Bibliotecas: Revista de La Escuela de Bibliotecología, Documentación E Información, 30(2). Retrieved from http://www.revistas.una.ac.cr/index.php/bibliotecas/article/view/4912


Abstract: Los autores llevan a cabo una clasificación del software libre disponible para automatizar bibliotecas y otras unidades de información. Adoptaron como parámetros para seleccionar dicho software que esté disponible en Internet, que sea en español y que sea especializado en manejo documental. El trabajo está pensado para facilitar a otros profesionales de la información la toma de decisiones a la hora de automatizar su biblioteca o centro de documentación.



  • Cotelo, S., & Makowski, A. (2012). Búsqueda de documentos utilizando criterios semánticos. Fing.edu.uy. Montevideo. Retrieved from http://www.fing.edu.uy/inco/grupos/pln/prygrado/InformeBUSSEM.pdf


Abstract: Es un trabajo final presentado en la Facultad de Ingeniería de la Universidad de la República, Uruguay. Propone un lenguaje de consulta que permita a los buscadores considerar vínculos entre palabras, expansión por sinónimos e interpretación de las expresiones de fecha.Estos aspectos se incluyen en el ranking de los documentos recuperados



  • De Sena, A. (2012). ¿ Qué es un indicador? Algunos elementos conceptuales en torno a la noción de indicador y su elaboración. In Gómez Rojas y De Sena (comp.) En clave metodológica,. Reflexiones y prácticas de la investigación social (1a. ed., pp. pp. 161–189). Buenos Aires: Ediciones Cooperativas. Retrieved from http: //www.researchgate.net/profile/Angelica_De_Sena/publication/275409261_Qu_son_los_indicadores/links/553bdf790cf2c415bb0b158c.pdf

Abstract: El término indicador es utilizado por distintas disciplinas y en diversos contextos, en los que se destacan la investigación y en el desarrollo y evaluación de políticas públicas; siempre dando cuenta de su importancia y las dificultades por las que se atraviesa al momento de su elaboración; pero también de la importancia que significa contar con ellos. Pero ¿ qué son?, ¿ cuándo se utilizan?, ¿están relacionados con la medición?, ¿se usan siempre los mismos?, ¿ qué elementos considerar al momento de elaborarlos?. El presente trabajo intenta efectuar un aporte a la reflexión sobre estos interrogantes y las decisiones por las que debe atravesar el investigador para su construcción, los alcances y limites. Para ello se realizará una revisión bibliográfica y se tomará el caso de la elaboración de indicadores sobre el desempeño de las microempresas o microemprendimientos financiados a partir de políticas sociales.



  • Díaz Peñaloza, R. J. (2011). Búsqueda por similaridad entre patrones de diseño de interfaz de usuario. Universidad de Talca. Retrieved from http://dspace.utalca.cl/handle/1950/8653

Abstract: Los Patrones de Diseño de Interfaz de Usuario, o simplemente UIDPs, son descripciones detalladas de recomendaciones que describen como solucionar problemas repetitivos y frecuentes que se presentan en el proceso de diseño de interfaces de usuario. Basados en ideas de patrones de diseño de software, los UIDPs tienen como objetivo principal, proporcionar bloques de construcción que puedan ser reunidos para crear una interfaz de usuario. Sin embargo, esto representa un desafío, pues los desarrolladores deben interactuar con repositorios que contienen una gran cantidad de UIDPs y analizarlos manualmente mediante la lectura de sus descripciones textuales para descubrir sus caracterısticas. Como una forma de facilitar la labor de los desarrolladores, esta memoria propone un mecanismo automático de comparacion entre UIDPs, que pueda ser utilizado para identificar similaridades entre ellos y en consecuencia mejorar el proceso de composición de interfaces de usuario. El desarrollo de este mecanismo, se basó en conceptos extraídos desde el área de recuperación de información, la que considera el estudio de métodos de procesamiento y representación de lenguaje natural.


  • Eouzan, G. (2013). Marketing web: Definir, implementar y optimizar nuestra estrategia 2.0 (1a. ed.). Barcelona: ENI. Retrieved from https://books.google.com.ar/books?hl=es&lr=&id=QYIlLa5Wtn8C&oi=fnd&pg=PA11&dq=%22posicionamiento+web%22&ots=c4yQKk8s2B&sig=W1BokpsiAE9uMiKuS_foN8bJ69w

Abstract: El autor expone el universo del marketing web, explica trucos para mejorar la visibilidad de un sitio web. Permite elaborar paso a paso una estrategia de e-marketing, un plan de e-comunicación y, entre otras cosas, poner en marcha acciones estratégicas con Google Analytics



  • Fernández Luna, J. M. (2001). Modelos de Recuperación de Información basados en Redes de Creencia. Universidad de Granada. Retrieved from http://digibug.ugr.es/handle/10481/24516

Abstract: El primer capítulo expone los conceptos generales y básicos para comprender el resto de la obra, tanto en la vertiente de las redes bayesianas como en la de recuperación de información. Comienza introduciendo las bases de la Recuperación de Información mediante la descripción del proceso completo, desde la indexación de documentos y consultas, hasta las técnicas, existentes para mejorar el rendimiento del sistema recuperador, pasando por la forma en que los principales modelos hacen la propia recuperación. La segunda parte se dedicará a hacer lo mismo, pero en este caso con las redes de creencia: qué son, para qué sirven, cómo se construyen (proceso de aprendizaje) y, por último, cómo se utilizan (programación). Finalmente, une estas dos áreas, centrándose en una revisión de las principales aplicaciones de las redes de creencia a la recuperación de información El segundo capítulo explica cómo las redes bayesianas pueden utilizarse eficiente y eficazmente como ayuda a cualquier sistema de recuperación de información, en este caso para realizar tareas de expansión de consultas. Describe detalladamente cómo construir la red de creencia subyacente, es decir, explicando su topología y el algoritmo de aprendizaje diseñado a medida para este problema. Explica cómo se puede utilizar la red construida para poner en práctica la técnica de modificación de la consulta mediante expansión. Concluye con la experimentación efectuada con este sistema. El capítulo 3 se puede clasificar como el más importante, ya que en él presenta el modelo genérico de recuperación de información que se ha desarrollado. Se distinguen tres partes principales: la primera, que se centra en la descripción del modelo, topología y estimación de las distribuciones de probabilidad; la segunda gira en torno a la exposición de cómo se puede usar el modelo construido para recuperar documentos, tarea que se pone en práctica mediante el correspondiente método de inferencia en redes bayesianas. Y, por último, la tercera parte centrada en la exposición de la experimentación y en el análisis de la misma. Una de las técnicas más ampliamente utilizadas para mejorar el rendimiento de un sistema de recuperación de información es la conocida como realiemntación de relevancia, por la cual la aplicación recuperadora genera nuevas consultas a partir de la información suministrada por el usuario,una vez que ha inspeccionado los documentos que le devuelve el sistema documental como respuesta a una consulta.Así, y tras realizar una introducción general a esta herramienta y otra específica, en la que se estudia cómo otros modelos basados en redes de creencia ponen en práctica esta técnica, describe dos propuestas novedosas para realizar la realimentación en este modelo. Cada propuesta viene acompañada de una detallada experimentación, al mismo tiempo que de los correspondientes comentarios explicando los comportamientos. Hasta este momento, se ha supuesto que los documentos incluidos en una colección no tienen relaciones directas unos con otros, sino solamente a través de los términos comunes que los indexan. En el capítulo 5 presenta un mecanismo para relacionarlos entre sí, originando un modelo más expresivo. Así, y tras explicar los fundamentos de este método, se muestran los resultados empíricos que se obtienen mediante el uso de esta extensión de los modelos originales. Por último, expone las conclusiones obtenidas en el desarrollo de esta investigación y esboza las líneas generales por las que discurrirá su investigación en el futuro.




  • Gaona García, P. A., Sánchez Alonso, S., & Montenegro Marín, C. (2014). Visualización de información: una propuesta para mejorar la búsqueda y los accesos a los recursos digitales en repositorios. Ingeniería E Investigación, 34; n° 1, 83–89. Retrieved from http://www.bdigital.unal.edu.co/37622/1/39449-200104-1-PB.pdf

Abstract: Es una propuesta para mejorar las prácticas de búsqueda y acceso a recursos relevantes en repositorios digitales a partir de técnicas de visualización.



  • Giraldo Plaza, J. E., Ruiz, M. A., & Mateus, S. P. (2011). Modelo para búsqueda y recuperación semántica en bibliotecas digitales. Revista Facultad de Ingeniería, 20, n° 30, 31–39. Retrieved from http://revistas.uptc.edu.co/revistas/index.php/ingenieria/article/view/1411

Abstract: El artículo propone un modelo de búsqueda y recuperación de información para objetos digitales en bibliotecas digitales, utilizando una ontología de dominio.


  • Giugni, M., & Loaiza, R. (2008). Metodología para el desarrollo de portales centrada en el usuario: una evaluación empírica. Télématique, 7; n° 3, 54–70. Retrieved from http://publicaciones.urbe.edu/index.php/telematique/article/viewArticle/854
 
Abstract: El desarrollo de aplicaciones Web involucra decisiones importantes de diseño. Se diseñó, siguiendo el método Investigación-Acción, una propuesta metodológica ágil para el Desarrollo de Portales Educativos denominada MeDPE, la cual está centrada en el usuario y basa su proceso en una constante aplicación iterativa de las actividades de evaluación, considerando la usabilidad desde la primera fase del desarrollo. Además, proporciona un enfoque sistemático, disciplinado, para el desarrollo y documentación de aplicaciones Web. El objetivo de este artículo es dar a conocer la propuesta metodológica MeDPE y su evaluación en la práctica mediante cinco casos empíricos, lo cual permitió obtener la Versión 1.1 de la misma, con la incorporación de diversos artefactos en su fase de requisitos.
 
 
 
 

  • Gómez, S. A. (2015). Integración de argumentación rebatible y ontologías en el contexto de la web semántica: formalización y aplicaciones. Universidad Nacional del Sur. Retrieved from http://repositoriodigital.uns.edu.ar/handle/123456789/2024

 
Abstract: La Web Semántica es una visión futura de la web donde la información tiene significado exacto definido en términos de ontologías codificadas en Lógicas para la Descripción (DL), permitiendo así que las computadoras entiendan y razonen en base a ella. La Programación en Lógica Rebatible es un formalismo basado en la argumentación rebatible y la Programación en Lógica que permite razonar en presencia de inconsistencia e incompletitud. La importancia de la definición de ontologías junto con la presencia de ontologías incompletas y potencialmente contradictorias motivó el desarrollo de un marco de razonamiento llamado de las delta-ontologías. Como un subconjunto importante de las Lógicas para la Descripción puede ser interpretado en la Programación en Lógica, la propuesta consiste asignar semántica a ontologías expresadas en Lógicas para la Descripción por medio de Programas Lógicos Rebatibles para lidiar con definiciones de ontologías inconsistentes en la Web Semántica.
 
 

  • Gonzalo Penela, C. (2015). Posicionamiento web y dinámicas de información en motores de búsqueda: propuestas de análisis y estudio comparativo de visibilidad de contenidos digitales en el caso de procesos electorales. Universitat Pompeu Fabra. Retrieved from http://repositori.upf.edu/handle/10230/23621

Abstract: Esta tesis tiene como objeto de estudio las características de las páginas web obtenidas a través de resultados de búsqueda (SERPs) durante los procesos electorales realizados en España entre los años 2010 y 2012. Partiendo del modelo teórico de Infoesfera expuesto por W.L. Bennet en 2003, se ha desarrollado un sistema de análisis capaz de englobar la totalidad de la web y analizar las proporciones con las que los buscadores muestran determinadas categorías de sitios web, en especial, medios de comunicación, webs de la esfera pública/política y de la web social. El resultado ha sido un nuevo modelo de Infoesfera y un estado de la cuestión sobre SEO y factores de posicionamiento en buscadores.


  • Guzmán Luna, J. A., López Bonilla, M., & Durley Torres, I. (2012). Metodologías y métodos para la construcción de ontologías. Scientia et Technica, 2; n° 50, 133–140. Retrieved from http://dialnet.unirioja.es/servlet/articulo?codigo=4316679

Abstract: Este artículo presenta un análisis comparativo de las diferentes metodologías y métodos existentes en el estado del arte orientados al diseño e implementación de ontologías. El trabajo incluye además algunos aspectos como la especificación de lenguajes y herramientas de implementación de las propias ontologías. Finalmente, los resultados se resumen en un caso de aplicación de un dominio específico formulado en el área de las artes plásticas.

  • Hassan-Montero, Y., Herrero-Solana, V., & Guerrero-Bote, V. (2010). Usabilidad de los tag-clouds: estudio mediante eye-tracking. Scire: Representación Y Organización Del Conocimiento, 16; n° 1, 15–33. Retrieved from http://www.ibersid.eu/ojs/index.php/scire/article/viewArticle/3869

Abstract: Los tag-clouds, o nubes de etiquetas, son componentes de interfaz en forma de lista compacta de palabras clave, que permiten al usuario explorar y navegar por conjuntos documentales. Si bien en los últimos años han gozado de gran popularidad en el entorno Web, también es cierto que, como interfaces visuales de recuperación de información, presentan evidentes problemas de usabilidad. El presente trabajo se propone indagar en la usabilidad de los tag-clouds, a través de la revisión bibliográfica y un estudio con usuarios utilizando técnicas de eye-tracking o seguimiento visual. Los resultados demuestran que tanto el tamaño de fuente como la forma del tag-cloud tienen una clara influencia en la exploración visual de los usuarios. Respecto a la ordenación de los tags, si bien la ordenación alfabética no ofrece ventajas en tareas de búsqueda exploratoria, los resultados sugieren que la agrupación semántica tampoco supone una mejora en términos de eficiencia en tareas de localización visual de los tags. Finalmente se proponen posibles mejoras en la presentación de los tag-clouds agrupados semánticamente, así como futuras líneas de investigación


  • Herrero-Solana, V., & Hassan-Montero, Y. (2006). Metodologías para el desarrollo de interfaces visuales de recuperación de información : análisis y comparación. Information Research, 11; nro 3, 17. Retrieved from http://eprints.rclis.org/7766/2/paper258.pdf

Abstract: El advenimiento de la web a principios de los años 90 introdujo muchas ventajas en relación con la posibilidad de intercambio, difusión y transferencia de datos pero, sin embargo, acarreó igualmente muchos problemas en relación con el acceso, búsqueda, localización y recuperación de la información relevante dentro de grandes volúmenes de datos.El presente trabajo realiza una revisión exhaustiva de los diferentes modelos, métodos y algoritmos existentes para la generación de Interfaces Visuales de Recuperación de Información (VIRIs, Visual Interfaces for Information Retrieval), clasificados según la etapa del proceso en la que intervienen: análisis y transformación de los datos, aplicación de los algoritmos de clasificación y distribución visual, y aplicación de técnicas de transformación visual.En base a su análisis, se comparan los diferentes métodos a emplear en cada etapa del proceso de producción, así como se determinan qué combinaciones entre métodos y algoritmos de diferentes etapas resultan más adecuadas. Resultados. En la primer sección, análisis y transformación de datos, se analiza la minería de contenidos, de estructura y de uso. En la segunda sección, algoritmos de clasificación y distribución visual, se muestran las representaciones jerárquicas, de redes, de dispersión y mapas. Finalmente, entre las técnicas de transformación visual se presentan las técnicas no orientadas a la distorsión visual y las orientadas a la distorsión (Focus+Context).


  • Jiménez González, D. (2011). Algoritmos de clustering paralelos en sistemas recuperación de información distribuidos. Universitat Politécnica de Valencia. Retrieved from http://dialnet.unirioja.es/servlet/tesis?codigo=23783

Abstract:  Esta tesis aborda todos estos aspectos desarrollando y mejorando métodos que permitan obtener SRI con mejores prestaciones, tanto en calidad de recuperación como en eficiencia computacional, los cuales permiten trabajar desde el enfoque de sistemas ya distribuidos. El principal objetivo de los SRI será proporcionar documentos relevantes y omitir los considerados irrelevantes respecto a una consulta dada. Algunos de los problemas más destacables de los SRI son: la polisemia y la sinonimia; las palabras relacionadas (palabras que juntas tienen un significado y separadas otro); la enormidad de la información a manejar; la heterogeneidad de los documentos; etc. De todos ellos esta tesis se centra en la polisemia y la sinonimia, las palabras relacionadas (indirectamente mediante la lematización semántica) y en la enormidad de la información a manejar.



  • Kuna, H., Rey, M., Martini, E., Cortés, J., Solonezen, L., Sueldo, R., & Pautsch, G. (2013). Generación de sistemas de recuperación de información para la gestión documental en el área de las Ciencias de la Computación. In XV Workshop de Investigadores en Ciencias de la Computación (pp. 324–328). Paraná. Retrieved from http://sedici.unlp.edu.ar/handle/10915/27177
     

Abstract: La búsqueda de información en bibliotecas digitales es una actividad en la cual los resultados a presentar al usuario, a partir de una consulta, deben responder a sus expectativas. Los Sistemas de Recuperación de Información buscan optimizar el proceso de búsqueda de contenido en la web a través de diversas herramientas, entre ellas los meta-buscadores. Los mismos amplían el espectro de cobertura en la búsqueda, a partir de la capacidad para utilizar las bases de datos de varios buscadores en simultáneo; además de poder incorporar diversos métodos para el ordenamiento de los documentos, que mejoren la relevancia de los resultados para el usuario. En este trabajo se presenta el desarrollo de un Sistema de Recuperación de Información para la búsqueda de documentos científicos en el área de las ciencias de la computación, haciendo especial hincapié en el algoritmo de ranking utilizado para ordenar el listado final de resultados.


  •  
    Kuna, H., Rey, M., Martini, E., Solonezen, L., & Podkowa, L. (2014). Desarrollo de un Sistema de Recuperación de Información para Publicaciones Científicas del Área de Ciencias de la Computación. Rev. Latinoamericana de Ingeniería de Software, 2; n°2, 107–114. Retrieved from http://iidia.com.ar/ReLAIS/relais-v2-n2-107-114.pdf
Abstract: La recuperación de información desde la web es una actividad recurrente para el investigador en general que, dada su complejidad, puede insumir una cantidad de timpo considerable. En este contexto, la relevancia y la calidad de los resultados obtenidos en cada búsqueda realizada son cruciales. Los Sistemas de Recuperación de Información se presentan como herramientas de gran utilidad para optimizar el proceso de búsqueda de información en la web, específicamente cuando se generan para contextos de funcionamiento acotados. En el presente trabajo se presenta el desarrollo de un meta-buscador orientado exclusivamente a la recuperación de publicaciones científicas del área de ciencias de la computación. Se incluye la descripción de los componentes desarrollados a medida, considerando las particularidades del tipo de documentos a recuperar, para la mejora de la relevancia y calidad de los resultados a retornar al investigador, comenzando por el proceso de expansión de consultas y finalizando por el algoritmo de ranking que establece el orden final de los resultados para su presentación al usuario.



  • Kuna, H., Rey, M., Podkowa, L., Martini, E., & Solonezen, L. (2014). Expansión de consultas basada en ontologías para un sistema de recuperación de información. In XVI Workshop de Investigadores en Ciencias de la Computación (pp. 500–504). Usuahia. Retrieved from http://sedici.unlp.edu.ar/handle/10915/41513

Abstract: Cuando un usuario ingresa una consulta para buscar información en bibliotecas digitales, éste espera que los resultados respondan a sus expectativas de la mejor manera. Los Sistemas de Recuperación de Información buscan optimizar el proceso de búsqueda y recuperación de información utilizando diversas herramientas. Entre las variantes de este tipo de sistemas se encuentran los meta-buscadores, que cuentan con la capacidad de ampliar el espectro de cobertura en una búsqueda, a partir de la posibilidad de utilizar las bases de datos de varios buscadores en simultáneo; además de poder incorporar diversos métodos para mejorar el espectro de documentos a ser recuperados. En este trabajo se presenta el desarrollo del componente para la expansión de consultas, basado en una ontología de dominio específico, en un sistema de recuperación de información para la búsqueda de documentos científicos en el área de las ciencias de la computación.

  • Küster, I., & Hernández, A. (2013). De la Web 2.0 a la Web 3.0: antecedentes y consecuencias de la actitud e intención de uso de las redes sociales en la web semántica. Universia Business Review, 37, 104–119. Retrieved from http://search.proquest.com/openview/0b9e3f8864b93b91ef28c459cf197386/1?pq-origsite=gscholar

Abstract: La Web 3.0 crea una base de conocimiento e información semántica y cualitativa y proporciona una herramienta esencial para la aceptación y funcionalidad de la publicidad de la empresa. La estrategia de ebranding en este entorno consigue la fidelización del usuario. Este trabajo analiza los antecedentes y consecuencias de la actitud e intención de uso de redes sociales en el entorno 3.0. Se utilizan modelos de ecuaciones estructurales y una muestra de 345 internautas. Los resultados confirman las relaciones propuestas.


  • Labra Gayo, J. E. (2012). Web Semántica. Comprendiendo el cambio hacia la web 3.0. NetBiblo. Retrieved from https://scholar.google.com.ar/scholar?start=20&q=allintitle:+%22web+sem%C3%A1ntica%22&hl=es&as_sdt=0,5&as_ylo=2010&as_yhi=2015#0

Abstract: En este libro se pretende dar una visión clara y práctica de qué es la Web Semántica y para qué sirve. Se utiliza un enfoque orientado a todo tipo de personas: se espera que un lector sin conocimientos técnicos sea capaz de comprender los términos que se introducen, a la par que un lector más especializado pueda comprender las motivaciones subyacentes de las diferentes tecnologías.



  • López Herrera, A. G. (2006). Modelos de sistemas de recuperación de información documental basados en información lingüística difusa. Universidad de Granada. Retrieved from http://digibug.ugr.es/handle/10481/872

Abstract: Esta tesis realiza una breve introducción a los sistemas de recuperación de información, introduce los conceptos y las herramientas de modelado lingüístico, para luego proponer un modelo lingüístico de recuperación de la información documental basado en el modelo de representación de la información 2-tupla, incorporando una nueva interpretación de la semántica de umbral, así como también nuevos operadores de agregación más flexibles. Este sistema será evaluado y comparado por otros propuestos en la literatura. Al final, se propondrá y evaluará un modelo también basado en el modelo 2-tupla, pero permitiendo usar información lingüística no balanceada, con el modelo de cómputo asociado para manejar este tipo de información.


  •  Marcos, M.-C. [et.al] (2006). Evaluación de la usabilidad en sistemas de información terminológicos online. Hipertext. Net, 4. Retrieved from http://ddd.uab.cat/pub/artpub/2007/88758/hipertext_a2007n5a7/usabilidad.html

Abstract: Presenta una investigación sobre la calidad de bases de datos terminológicas tomando como criterio la usabilidad. Se tomaron diez bases de datos de acceso libre, y se evaluó la forma en que los usuarios interactúan con cada una y las dificultades que se les presentan



  • Marín Milanés, F. (2006). Repensando la figura del usuario de la información. Acimed, 14; n° 5. Retrieved from http://scielo.sld.cu/scielo.php?pid=S1024-94352006000500020&script=sci_arttext

Abstract: Se realiza un acercamiento histórico y teórico a la figura del usuario de la información. Se aborda el usuario como el principal elemento de un sistema de información, así como la importancia de su correcto estudio y comprensión para un adecuado diseño de productos y servicios de información. Se conceptualiza al sujeto usuario de la información y se realiza un recorrido histórico por sus paradigmas. Finalmente, se presentan dos importantes perspectivas o teorías relativas al estudio de los usuarios.


  • Martín, A., Gaetán, G., Saldaño, V., Miranda, G., Molina, S., & Pastrana, S. (2012). Diseño y Evaluación tempranos para priorizar la Accesibilidad en la WWW. In XIV Workshop de Investigadores en Ciencias de la Computación (pp. 410–414). Misiones. Retrieved from http://sedici.unlp.edu.ar/handle/10915/18876

Abstract: En 1999, el consorcio W3C1 presenta las primeras recomendaciones de Accesibilidad al contenido de la Web, reconocidas internacionalmente por las siglas WCAG2. Desde entonces, han surgido numerosas organizaciones con el objetivo de propiciar el diseño inclusivo y el acceso igualitario a “una Web de todos y para todos” y conjuntamente ha ido creciendo la toma de conciencia en la comunidad mundial sobre la importancia de este factor de calidad al éxito de la Web. En consecuencia, ya son varios los países que han sancionando legislación para que sus sitios Web de gobierno sean “accesibles” a todos sus ciudadanos, y tal es la situación de la República Argentina que ha hecho lo propio en Junio de 2011 con la sanción de la ley 26.653, denominada “Guía de Accesibilidad para Sitios Web del Sector Público Nacional”. Enmarcados por esta realidad, nuestro Proyecto de Investigación tiene por objetivo desarrollar técnicas y herramientas que propicien la inclusión temprana de los requerimientos de Accesibilidad en las prácticas de diseño y evaluación de portales, sitios y aplicaciones Web.


  • Martín, A., Gaetán, G., Saldaño, V., Miranda, G., Vilte, D., Sosa, H., & Molina, S. (2014). Identificación, desarrollo y uso de soluciones web centradas en el usuario. In XVI Workshop de Investigadores en Ciencias de la Computación (pp. 387–391). Usuahia. Retrieved from http://sedici.unlp.edu.ar/handle/10915/41414

Abstract: En la actualidad, no existe duda alguna de que las Tecnologías de la Información y las Comunicaciones (TICs) y la Web están entramadas en las estructuras sociales y de negocio y por ende, forman parte de la vida cotidiana de los ciudadanos. Existen numerosas organizaciones y áreas de conocimiento, comprometidas con aportar soluciones a la problemática de considerar a los usuarios al momento de concebir y desarrollar productos para la Web. Sin embargo, los esfuerzos de investigación aún son insuficientes frente al tremendo desafío que significa facilitar el acceso a los miles de millones de personas distribuidas en el entorno “worldwide” que plantea la Web. Para derribar barreras que obstaculizan el uso de los productos desplegados en la Web a los diferentes grupos de usuarios de interés, se necesitan soluciones proactivas que propicien el acceso y la interacción en el desarrollo y mejora de estos productos. El “Grupo de Investigación y Formación en Ingeniería de Software (GIFIS)” de UNPA-UACO está trabajando fuertemente desde el año 2010 con Proyectos de Investigación (PI) destinados a atender esta problemática nada trivial y ha enfocado los esfuerzos de investigación en proponer soluciones que aporten a mejorar la experiencia del usuario en la Web.



  • Martínez Cazares, E. (2012). Recuperación personalizada de información de una Biblioteca Digital. México: Instituto Politécnico Nacional. Retrieved from http://tesis.bnct.ipn.mx/dspace/handle/123456789/8636

Abstract: Es una tesis de Maestría en Ciencias de la Computación. Desarrolla un prototipo de biblioteca digital en el que se registran las preferencias del usuario para una atención más personalizada



  • Martínez Romo, J. (2010). TÉCNICAS DE RECUPERACIÓN DE INFORMACIÓN. dialnet.unirioja.es. Universidad Nacional de Educación a Distancia. Retrieved from http://dialnet.unirioja.es/servlet/tesis?codigo=27193&orden=405223&info=link

Abstract: Se aborda el vínculo entre el problema de los enlaces rotos en las páginas web y el spam de buscadores, estableciendo un sistema de recuperación de información web. El inconveniente que genera la desaparición de una página web, ha sido afrontado mediante el diseño de un Sistema de Recuperación de Enlaces Rotos (SRER). Analiza la información disponible acerca de una página desaparecida, y recomienda al usuario un conjunto de documentos candidatos para reemplazar el enlace obsoleto. El SRER propuesto en esta tesis no necesita del almacenamiento previo de ningún tipo de información acerca de la página desaparecida, para poder realizar una recomendación. El diseño consta de cuatro etapas, en las que se aplican diferentes técnicas de recuperación de información y procesamiento del lenguaje natural, para obtener el mejor rendimiento. La primera consiste en un proceso de selección de información, en el cual se analiza en primer lugar, el texto del ancla del hiperenlace que dejó de funcionar. Los términos que componen el ancla son una pieza fundamental en el buen funcionamiento del sistema, y de esta forma se realiza un reconocimiento de entidades nombradas, para determinar aquellos términos con un valor descriptivo superior. En segundo lugar, se extrae información del contexto del hiperenlace para conseguir un mayor grado de precisión. Cuando una página web desaparece, durante un periodo de tiempo, es posible encontrar datos acerca de dicha página en la infraestructura web. Teniendo en cuenta esta información, en tercer lugar se propone el uso de recursos disponibles en la Web, a fin de  seguir el rastro que ha dejado la página desaparecida. Entre estos recursos están las aplicaciones proporcionadas por los principales motores de búsqueda, librerías digitales, servicios web y redes sociales. La segunda etapa se centra en las fuentes de información obtenidas a partir del contexto del enlace y de los recursos online disponibles. En algunos casos, el tamaño de dichas fuentes es demasiado grande como para discriminar la información relevante de la que no lo es. Por ello se lleva a cabo un proceso de extracción de terminología a fin de sintetizar la información. En la tercera etapa, el SRER analiza la información obtenida y establece un conjunto de consultas, que luego serán ejecutadas en un motor de búsqueda. En esta fase se parte de los datos obtenidos del texto del ancla y a continuación se realiza un proceso de expansión de consultas. Por cada una de las consultas, el sistema recupera los primeros resultados devueltos por el buscador. Posteriormente se lleva a cabo una ordenación por relevancia, para mostrar al usuario un conjunto de resultados en orden decreciente. Se analizaron para ello  algunas funciones de ranking. Las cuatro etapas están dirigidas por un algoritmo que analiza la información disponible en cada caso, y toma una decisión,  para optimizar por un lado los resultados mostrados al usuario y por otro lado el tiempo de respuesta del sistema. Otro aporte es el desarrollo de una metodología de evaluación, que evita el juicio de humanos a fin de ofrecer unos resultados más objetivos. Por último, el SRER, representado a su vez por el algoritmo de recuperación de enlaces rotos, fue integrado en una aplicación web denominada Detective Brooklynk. La recuperación de un enlace, está basada en la hipótesis de que dicha información es coherente. Existen casos es los que los autores de páginas web manipulan la información relativa a una determinada página, con el objetivo de obtener algún beneficio. Se analizan los casos en los que una página web inserta información incoherente acerca de una segunda página apuntada, para  promocionarla en un buscador. En la segunda parte de esta tesis, enmarcada dentro del área de la detección de web spam, se parte del concepto de recuperación de enlaces para detectar aquellos de naturaleza fraudulenta. En esta ocasión, el motor del sistema de recuperación de enlaces rotos es modificado para la recuperación de enlaces activos. El objetivo es localizar los enlaces cuya información acerca del recurso apuntado es voluntariamente incoherente y por tanto resulta imposible su recuperación. El sistema resultante es capaz de proporcionar un conjunto de indicadores por cada página analizada, empleados para una etapa posterior de clasificación automática. El web spam se divide principalmente en dos grupos de técnicas: las que inciden sobre los enlaces de las páginas web, y las que emplean el contenido para promocionarlas. Así, mediante el sistema de recuperación de enlaces se consiguen detectar los enlaces fraudulentos. En esta tesis se decidió completar la detección de spam de contenido. Para ello, se ha llevado a cabo un análisis de la divergencia entre el contenido de dos páginas enlazadas. Se propone la  utilización de dos nuevos conjuntos de indicadores. Además, la combinación de ambas características da lugar a un sistema ortogonal que mejora los resultados de detección de ambos conjuntos por separado.



  • Miñón, R., Abascal, J., Aizpurua, A., Cearreta, I., Gamecho, B., & Garay, N. (2011). Generación de interfaces de usuario accesibles para entornos ubicuos, basadas en modelos. In XII Congreso Internacional Interacción (pp. 145–154). Lisboa: researchgate.net. Retrieved from http://www.researchgate.net/profile/Raul_Minon/publication/236749976_Generacin_de_interfaces_de_usuario_accesibles_para_entornos_ubicuos_basadas_en_modelos/links/004635193579b91ea9000000.pdf

Abstract: Este artículo presenta un sistema destinado a generar automáticamente interfaces accesibles adaptadas a las necesidades de los usuarios. El objetivo es garantizar a las personas con discapacidad el acceso a servicios ubicuos provistos por máquinas inteligentes, tales como cajeros automáticos o máquinas expendedoras. Las interfaces se generan a partir de su descripción abstracta en un lenguaje de especificación de interfaces de usuario y están basadas en modelos de los usuarios y del contexto


  •   Montenegro, L., Ochoa, V., & Espinoza Mejía, M. (2014). Mejorando la visibilidad de sitios web usando tecnología semántica. Maskana.Revista Científica, 139–150. Retrieved from http://dspace.ucuenca.edu.ec/handle/123456789/21397

Abstract: La visibilidad de una página Web involucra el proceso de mejora de la posición del sitio en los resultados devueltos por motores de búsqueda como Google. Hay muchas empresas que compiten agresivamente para conseguir la primera posición en los motores de búsqueda más populares. Como regla general, los sitios que aparecen más arriba en los resultados suelen obtener más tráfico a sus páginas, y de esta forma, potencialmente más negocios. En este artículo se describe los principales modelos para enriquecer los resultados de las búsquedas con información tales como fechas o localidades; información de tipo clave-valor que permite al usuario interactuar con el contenido de una página Web directamente desde el sitio de resultados de la búsqueda. El aporte fundamental del artículo es mostrar la utilidad de diferentes formatos de marcado para enriquecer fragmentos de una página Web con el fin de ayudar a las empresas que están planeando implementar métodos de enriquecimiento semánticos en la estructuración de sus sitios Web

  • Morato Lara, J., Sánchez-Cuadrado, S., Moreno, V., & Moreiro González, J. A. (2013). Evolución de los factores de posicionamiento web y adaptación de las herramientas de optimización. Revista Española de Documentación Científica, 36; nro 3. Retrieved from http://dialnet.unirioja.es/servlet/articulo?codigo=4491843

Abstract: Las herramientas de optimización web, Search Engine Optimization (SEO), se utilizan para analizar y mejorar los sitios web en relación a distintos factores de posicionamiento. Esta investigación estudia la evolución de las estrategias de posicionamiento web y analiza la adaptación de las herramientas de optimización a estos factores. Además, se estudian qué factores de posicionamiento están presentes en las herramientas SEO más populares. En la fase experimental se analiza el grado en que las estrategias de optimización mejoran el posicionamiento, y en qué medida se encuentran esas funcionalidades en las herramientas SEO. Adicionalmente se han analizado foros y blogs oficiales para descubrir nuevas pautas de evolución de los motores de búsqueda y el grado en que las herramientas SEO pueden adaptarse a dichos cambios. Aunque estas herramientas optimizan el posicionamiento, los resultados sugieren la necesidad de introducir importantes mejoras que aumenten su potencialidad futura.



  • Morato Lara, J., Sánchez-Cuadrado, S., Ruiz Robles, A., & Moreiro González, J. A. (2014). Visualización y recuperación de información en la web semántica. El Profesional de La Información, 23; nro 3, 319–329. Retrieved from http://dialnet.unirioja.es/servlet/articulo?codigo=4783255

Abstract: Se cuestiona el funcionamiento de los motores de búsqueda para la web semántica y si la visualización gráfica de los resultados mejora la recuperación. Se han analizado los tipos de consultas que se pueden realizar y las principales características de un buscador semántico. Se ha seleccionado una consulta y se ha ejecutado en buscadores semánticos de acceso online con la DBpedia. Además, se han estudiado las funciones básicas y deseables en un buscador de la web semántica y se han revisado algunos estudios sobre la evaluación de buscadores semánticos. Por último se analizan las soluciones gráficas para mostrar los resultados de algunos buscadores. Las principales conclusiones inciden en la idea de que las soluciones de visualización de los resultados de las consultas no cumplen las expectativas propuestas en la bibliografía.


  • Moreiro González, J. A. (2013). F. 7. Hacia la primacía de los conceptos sobre los términos en los vocabularios para la web semántica. In Anuario Think EPI (Vol. 7, pp. 173–177). Barcelona. Retrieved from http://cat.inist.fr/?aModele=afficheN&cpsidt=28010670

Abstract: La representación léxica de la información ha tenido que adaptarse a las condiciones que marcó la web para la generación y el tráfico de la información. En la actualidad conviven sistemas ya veteranos basados en palabras o en términos controlados con los de vocación conceptual y, por tanto, semántica. En estos se ha dado una decisiva progresión hacia el manejo de conceptos tras convertirse los tesauros en redes semánticas, posibilitado por la existencia de ontologías de dominio. El reto viene del procesamiento de esos conceptos, de sus enlaces asociativos y de conseguir la interoperabilidad de sus esquemas.

Abstract: El SEO lleva algún tiempo con nosotros y es esencial para tener una buena presencia en las búsquedas. Sin embargo hay cierta confusión en los mecanismos que intervienen en el posicionamiento web. En esta breve introducción podrás descubrir qué es SEO (y qué no es) para empezar a aplicarlo a tu web.


  • Niño-Zambrano, M. A., Pezo, D. M., Pérez, D. J., Cobos Lozada, C. A., & Ramírez-Gonzalez, G. A. (2013). Procedimiento para la construcción de índices semánticos basados en ontologías de dominio específico. Entramado, 9, n° 1, pp. 262–287. Retrieved from http://dialnet.unirioja.es/servlet/articulo?codigo=4469572
Abstract: Los sistemas de búsqueda web actual, aún están lejos de ofrecer respuestas completamente contextualizadas y precisas a los usuarios, ya que éstos deben hacer esfuerzos adicionales de filtrado y evaluación de la información proporcionada. Una forma de mejorar los resultados, es mediante la creación de índices semánticos, los cuales incorporan conocimiento y procesamiento inteligente de los recursos. Sin embargo, al momento de implementar los índices semánticos, existen variadas investigaciones con procedimientos propios y con procesos largos de conceptualización, implementación y afinación. Es así, como se vuelve importante definir una herramienta que permita crear este tipo de estructuras de una manera más estructurada y eficiente. El presente trabajo propone un procedimiento que permite crear índices semánticos a partir de ontologías de dominio específico. La metodología utilizada fue la creación de un estado del arte de las diferentes propuestas existentes y posteriormente la abstracción de un procedimiento general que incorpore las mejores prácticas de creación de índices semánticos. Posteriormente, se creó un índice semántico el dominio de las plantas y sus componentes. Los resultados permiten establecer que el proceso definido es una buena herramienta para guiar la implementación de este tipo de estructuras con un alto grado de personalización. Sin embargo, también evidenció que el proceso depende otras variables al momento de construir y trabajar con el índice y por lo tanto se debe reevaluar el diseño hasta obtener los resultados deseados.


  • Niño-Zambrano, M. A., Ramírez-Gonzalez, G. A., Niño-Zambrano, J. A., & Gómez-Flórez, L. C. (2013). Método de Indexación Semántica en Internet de las Cosas. In Semantic Web and Linked Open Data Workshop 2013 (p. 6). Morelia. Retrieved from http://www.researchgate.net/profile/Miguel_Nino_Zambrano/publication/258628591_Mtodo_de_Indexacin_Semntica_en_Internet_de_las_Cosas/links/0c960528b9bdc5a5d1000000.pdf

Abstract: El futuro de la Internet de las Cosas depende en gran medida de la capacidad para gestionar adecuadamente los datos e información producida por los sensores. El presente trabajo plantea un método de indexación semántica que apoya la construcción de motores de búsqueda inteligentes a partir de una estructura de conocimiento mediada por ontologías y adaptadas a las necesidades de información de los usuarios en la web de las cosas.

 


  • Prat, M. (2012). SEO-Posicionamiento de su sitio web-en Google y otros buscadores (2a. ed.). Barcelona: ENI. Retrieved from https://books.google.com.ar/books?hl=es&lr=&id=7tmXI2uTkV4C&oi=fnd&pg=PA11&dq=%22posicionamiento+web%22&ots=5Rfd2VbQwG&sig=_gANjEFdWAQvYX4OmWE4My4s1U4
 
Abstract: El mundo de los buscadores y del posicionamiento SEO está en constante evolución: lo que era cierto hace unos meses, ya no tiene por qué serlo hoy. Estar bien posicionado en Google, el principal motor de búsqueda, es prácticamente obligatorio si desea que los internautas encuentren y visiten sus páginas web. Tras la presentación de las herramientas de búsqueda en general, y de Google en particular, el libro detalla las distintas etapas del posicionamiento en Google. Comenzaremos analizando los criterios de relevancia que utiliza el buscador y veremos, desde la selección de las palabras clave durante la fase de concepción del sitio web, hasta las técnicas de link building, pasando por la optimización del código HTML. Aprenderá a indexar su sitio web en Google y otros buscadores y descubrirá además las diferentes técnicas (indexación multimedia y optimización en redes sociales), así como las soluciones de e-marketing que le permitirán generar tráfico hacia sus páginas web. En el último capítulo analizaremos las técnicas de evaluación, tanto de la indexación y el posicionamiento en Internet, como de la audiencia de sus páginas (el tráfico de su sitio web)
 
  •   Pró Concepción, L. (2010). Fundamentos de ingeniería de la web: ontologías, web semántica y agentes de software. Revista de Investigación de Sistemas E Informática, 7(1), 77–89. Retrieved from http://revistasinvestigacion.unmsm.edu.pe/index.php/sistem/article/view/3269

 
Abstract: Desarrolla los conceptos de web semántica, ontologías, agentes de sofware y describe escenarios futuros con la aplicación de estas tecnologías.
 
 
  • Quimbiulco Sosapanta, T. K., & Sanguano Caizaluisa, E. G. (2015). Análisis, diseño y evaluación de una propuesta tecnológica que mitigue el acceso a páginas web con contenido inapropiado. Universidad de las Fuerzas Armadas ESPE. Retrieved from http://repositorio.espe.edu.ec/handle/21000/9714

 
Abstract: Ante el acelerado progreso de la tecnología, las comunicaciones y la falta de control de acceso a Internet en áreas como hogares y colegios, se identificó la necesidad de realizar el presente trabajo de investigación. Se realizaron encuestas a adolescentes, padres de familia y administradores de redes en don de se logra identificar que el porcentaje de control de acceso a Internet es mínimo. A partir de esta premisa se realiza un estudio de la situación actual sobre herramientas de Control Parental, evaluando diferentes herramientas de software toman do en cuenta las características de: funcionalidad, eficiencia, usabilidad, seguridad, y costos de licencias, las cuales demostraron que no todas cumplen con lo requerido. Se determinó una línea base obteniendo requisitos donde se consideran las características principales para desarrollar una aplicación Web.  Se implementó un mecanismo para el Control Parental, en el que mitiga el riesgo y además se registra todos los accesos efectuados por menores a través del Internet. Se utilizó la metodología de desarrollo OOHDM, integrando Procesamiento de Lenguaje Natural , con la técnica de Recuperación Booleana utilizando algoritmos de búsqueda Boyer-Moore y búsqueda aproximada. Finalmente se procedió a instalar la aplicación en varios lugares, dentro de los primeros quince días se registraron todas la s visitas realizadas en Internet, posteriormente se activan las páginas Web y palabras que se deben bloquear por considerarse inadecuadas para los menores. Con la información recopilada se identificó que efectivamente una herramienta de Control Parental reduce el riesgo de acceder a sitios Web con contenido inapropiado.
 
 
 
  • Rincón Cinca, J. (2012). XML y web semántica: Bases de datos en el contexto de la web semántica. Cataluña: Universidad Abierta de Cataluña. Retrieved from http://openaccess.uoc.edu/webapps/o2/handle/10609/14999

 
Abstract: Analiza el estado actual de los gestores de bases de datos semánticas, los cuales ofrecen la posibilidad de añadir contenido semántico a las relaciones entre los datos que se guardan en el gestor. Define que es una base de datos semántica y como se utiliza. Estudia detalladamente la base de datos OWLIM, de la empresa Onotext.
 
 
 
  • Rivero-Hernández, D. de la C., Pérez-Vázquez, R., & Reyes-Ricardo, I. (2013). Modelos de recuperación de Información. Generalización. Innovación Tecnológica, 19; nro 2, 1–7. Retrieved from http://innovaciontec.idict.cu/index.php/innovacion/article/view/296

 
Abstract: En este artículo se resumen las principales características de los modelos de recuperación de información, los cuales tienen como objetivo facilitar el proceso de comparación entre una consulta determinada y un conjunto de textos sobre los que se realiza la consulta, para esto definen distintas formas de representar los documentos. Los modelos de recuperación descritos están pensados únicamente para documentos de contenido textual.
 
 
 
  • Rodríguez García, A. A. (2013). El aprovechamiento de los metadatos en las bibliotecas. E-Ciencias de La Información, 3, n°1, 14. Retrieved from http://www.revistas.ucr.ac.cr/index.php/eciencias/article/view/8492

Abstract: Este artículo muestra cómo se están empleando los metadatos para organizar y controlar mayor cantidad de objetos de información en las bibliotecas digitales y repositorios institucionales; lo cual exige mayores conocimientos y especialización para los bibliotecarios.


  • Rodríguez García, M. A. (2014). Extracción semántica de información basada en evolución de ontologías. Universidad de Murcia. Retrieved from http://www.tdx.cesca.cat/handle/10803/284722
 
Abstract: La Web Semántica nace para que los usuarios encuentren las respuestas a sus necesidades de información de una manera más rápida y sencilla. Los recursos de la web son descriptos de un modo más específico utilizando metadatos semánticos y ontológicos. Esta tesis propone una nueva metodología de anotación semántica, con las siguientes fases: representación y anotación semántica, extracción de términos, indexación semántica y evolución de ontologías
 
 
 
  • Rodríguez Luna, M. (2012). Ampliación y perfeccionamiento de los métodos cuantitativos y leyes clásicas en recuperación de la información: desarrollo de un sistema de indización y segmentación automática para textos en español. Universitat Politécnica de Valencia. Retrieved from https://riunet.upv.es/handle/10251/31517

 
Abstract: Se desarrolla e implementa un Sistema de Indización y Segmentación Automática para textos largos en español, contribuyendo a su categorización textual e indización automática. Para ello se estudian y perfeccionan los métodos cuantitativos y leyes clásicas en Recuperación de Información, como son los modelos relativos al proceso de repetición de palabras (Zipf, 1949), (Mandelbrot, 1953) y al proceso de creación de vocabulario (Heaps, 1978). Se realiza una crítica de las circunstancias de aplicación de los modelos y se estudia la estabilidad de los parámetros de manera experimental mediante recuentos en textos y sus fragmentos. Se establecen recomendaciones a priori para los valores de sus parámetros, dependiendo de las circunstancias de aplicación y del tipo de texto analizado. Se observa el comportamiento de los parámetros de las fórmulas para vislumbrar una relación directa con la tipología de texto analizado. Se propone un nuevo modelo (Log-%) para la visualización de la distribución de frecuencias de las palabras de un texto. El objetivo final es detectar los cambios temáticos que se producen en un documento, para establecer su estructura temática y obtener la indización automática de cada una de sus partes. Asi, se obtiene la categorización del texto o documento utilizando la enumeración de sus partes temáticas a modo de niveles o estructura arbórea. Una vez constituidas las partes temáticas del texto en sus niveles correspondientes con los términos indizados, estos se agrupan en bloques distribuidos jerárquicamente según se desglose el documento en cuestión. El bloque inicial describe el contenido global de todo el documento con una cantidad inicial de palabras o descriptores. Seguidamente, se subdivide en varios bloques, que corresponden a distintas partes del documento total, cada uno de estos también contiene una serie de palabras que describe el contenido y así sucesivamente hasta poder formar las divisiones necesarias y llegar a describir cada párrafo del documento en cuestión. Los términos que finalmente formarán parte del mapa temático o Sistema de Indización y Segmentación Automática serán una combinación de palabras obtenidas del texto y coocurrencias de palabras que superen los umbrales adecuados. Los términos quedan colocados automáticamente en cada nivel de Segmentación utilizando similitudes entre ellos y la representación Log-% anteriormente citada. Esta Tesis doctoral, no solo consta de una base conceptual teórica sobre indización y segmentación automática sino en la implementación y crítica de las aplicaciones
 
 
  • Rodríguez Palchevich, D. (2012). Usabilidad web y posicionamiento en buscadores. Estrategias básicas para lograr que nuestros usuarios encuentren y aprovechen mejor los recursos que les brindamos en línea. In 44° Reunión Nacional de Bibliotecarios. Buenos Aires. Retrieved from http://eprints.rclis.org/handle/10760/16908

 
Abstract: La información y los contenidos que nuestros usuarios requieren, debería poder llegarles a sus manos, en el lugar y medida de su necesidad. El desarrollo de las TIC, y entre ellas la Web, nos permite satisfacer necesidades de información, más allá de las barreras de tiempo, soportes y distancias. Pero esa misma Web que tanto nos favorece y aporta, también se convierte en nuestro principal competidor a la hora de atraer la atención de nuestros usuarios. Nuestras páginas y portales web, tendrán que ser entonces, tan “encontrables”, interesantes, fiables, efectivas y fáciles de usar que seduzcan y fidelicen a los usuarios, haciéndolos retornar una y otra vez a nuestro sitio. En este paper se definen e introducen brevemente los temas posicionamiento en buscadores y usabilidad, sugiriéndose estrategias básicas iniciales para mejorar los servicios web que ofrecemos a nuestros usuarios.
 
 
  • Rodríguez Perojo, K., & Ronda León, R. (2006). El web como sistema de información. ACIMED, 14(1). Retrieved from http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S1024-94352006000100008&lng=es&nrm=iso&tlng=es
 
Abstract:: Se abordan los antecedentes históricos, teóricos y prácticos, necesarios para el surgimiento de una nueva área en las ciencias de la información: la recuperación y la importancia del Web como nuevo espacio para la interacción del hombre con la información hipertextual. Se exponen también, los conceptos Web superficial y Web profundo; se describen algunos de los principales buscadores útiles para explorar el Web profundo, así como las nuevas herramientas para la recuperación de la información como la minería textual y de datos y el descubrimiento de conocimientos en bases de datos.
 
 
  • Rojas Pacheco, A. M. (2014). Características de minimización en los lenguajes de marcado: medidas de la reducción de los documentos. Universidad de Sevilla. Retrieved from http://0-bibing.us.es.fama.us.es/proyectos/abreproy/12195/fichero/PFC_AnaRojasPacheco.pdf
 
Abstract: El objetivo de este proyecto es el de medir la reducción que experimenta un documento al hacer uso de las características de minimización del lenguaje SGML. Se pretende comparar la complejidad que aportan dichas características frente al ahorro de memoria que pueden conseguir y comprobar si sus ventajas no son tan despreciables como para dejar de considerar algunas de ellas en nuevos lenguajes de marcado, como MicroXML, que en la fecha de realización de este proyecto sigue en fase de desarrollo. Para llegar a dicho objetivo se pretende estudiar previamente el lenguaje SGML, así como los lenguajes XML y MicroXML, y sus diferencias con el primero. Una vez conocidos estos lenguajes de marcado, se estudiarán las características de minimización y se comprobará hasta dónde puede reducirse un documento sin que un analizador confunda su estructura. Será necesario instalar un analizador, escoger un ejemplo sencillo al que puedan aplicarse una tras otra todas las minimizaciones y analizar la problemática a la hora de utilizarlas. A continuación se aplicarán las técnicas de minimización al documento elegido para realizar las medidas. A la hora de cuantificar la reducción que puede llegar a obtenerse en el documento, se decide comparar el número de caracteres correspondientes a etiquetas que hay en el documento completo y en el mismo documento después de aplicarle distintos tipos de minimización. Para ayudar en dicha tarea se pretende escribir un programa en lenguaje Java que acepte una carpeta con un archivo completo y varios minimizados y devuelva el tanto por ciento de reducción conseguido en cada uno. Los tipos de documentos que más se beneficiarían de este tipo de reducción, por tanto de los más afectados con la eliminación de estas características y uno de los motivos del debate sobre su inclusión en XML, son los que almacenan información de bases de datos. Las etiquetas representan en ellos un porcentaje muy elevado del tamaño del archivo, por ello se ha escogido para realizar las medidas un fragmento de una base de datos. El documento consiste en un archivo con cincuenta registros extraídos de una gran base de datos creada con propósitos educativos por Gio Wiederhold
 
 
 
  • Ruiz-Morilla, J., Serrano-Guerrero, J., Olivas, J. A., & Viñas, E. F. (2010). Representación Múltiple de Consultas: Una alternativa a la Expansión de Consultas en Sistemas de Recuperación de Información. In Actas del XV Congreso Español sobre Tecnologías y Lógica Fuzzy (pp. 531–536). Huelva. Retrieved from http://www.uhu.es/estylf2010/trabajos/SS09-03.pdf
 
Abstract: A lo largo de los años se ha intentado mejorar la calidad de información obtenida por los sistemas de recuperación de información teniendo en cuenta la interacción con el usuario. Para ello es necesario usar métodos que permitan dirigir el proceso de búsqueda como puede ser la expansión de consultas, con el fin de obtener una búsqueda más precisa y eficiente. Pero la puesta en funcionamiento de estas técnicas no siempre es posible, por lo que hay que optar por medios alternativos. En este artículo se presenta una metodología para la representación de una consulta desde distintos puntos de vista aplicable especialmente en aquellos ambientes donde otras técnicas clásicas no pueden ser aplicables.
 
 
 
  • Salvador Oliván, J. A., & Arquero Avilés, R. (2006). Una aproximación al concepto de recuperación de información en el marco de la ciencia de la documentación. Investigación Bibliotecológica, 20(41), 13–43. Retrieved from http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S0187-358X2006000200002&lng=es&nrm=iso&tlng=pt
 
Abstract: La naturaleza interdisciplinar de la recuperación de información plantea problemas no fáciles de resolver a la hora de establecer una definición válida para todas las ciencias relacionadas con este campo. El presente artículo pretende ofrecer una definición de recuperación de información en el contexto de la ciencia de la documentación. Para ello, se presenta en primer lugar una visión global a través de los principales conceptos proporcionados en la literatura del campo y se analiza su influencia y relación interdisciplinar con la informática, la ciencia de la información y la documentación. Posteriormente, se realiza un análisis intradisciplinar dentro de la propia documentación con el objetivo de establecer sus propias fronteras y determinar su propia identidad.
 

  • Sánchez Carballido, J. R. (2011). Perspectivas de la información en Internet: ciberdemocracia, redes sociales y web semántica. Zer-Revista de Estudios de Comunicación, 13; n.° 25, 61–81. Retrieved from http://www.ehu.eus/ojs/index.php/Zer/article/view/3574
 
Abstract: El autor presenta las últimas novedades tecnológicas en el entorno de internet relacionadas con la comunicación. El protagonismo del usuario habilita nuevas posibilidades pero también genera dudas acerca de la calidad y fiabilidad de la información tratada por agentes no profesionales.
 
 
  • Sandoval Cantor, A. E. (2011). Uso de Ontologías y la Web Semántica para apoyar la Gestión del Conocimiento. Ciencia E Ingeniería Neogranadina, 17, n° 2, pp. 111–129. Retrieved from http://www.redalyc.org/articulo.oa?id=91117208
 
Abstract: Los servicios web semánticos son aplicaciones componentes de la Web 2.0, se consolidan como una evolución de los servicios web tradicionales, al estar enriquecidos con descriptores que permiten especializar las búsquedas de información, según el significado y enfocadas en las necesidades del usuario. Las ontologías son fundamentos semánticos que tienen algunas aplicaciones prácticas desarrolladas en las ciencias de la salud y la filosofía, especialmente. Los Servicios Web se han consolidado como una tecnología esencial para la cooperación en Internet, pero requieren mecanismos para su integración, estableciéndose como herramienta tecnológica que contribuya a la globalización y gestión del conocimiento en las actividades organizacionales o en el campo de la investigación, con servicios que mejoren los tiempos de respuesta a los usuarios, en términos de búsquedas eficientes y rápidas. Esta Web extendida se apoya en lenguajes universales como la lógica descriptiva, los agentes inteligentes y las ontologías, resolviendo las carencias semánticas que hoy hacen difícil y dispendioso el acceso a la información en Internet. Mientras los estándares relacionados con la composición o colaboración de Servicios Web dan un primer acercamiento, su convergencia con las tecnologías actuales, ofrecen un gran panorama hacia la obtención de un entorno en el cual la búsqueda, efectividad y ejecución de servicios sea completamente automatizada. De acuerdo a lo anterior, la Web Semántica es una Web perfeccionada, dotada de mayor significado con el cual, cualquier usuario en Internet podrá encontrar respuestas a sus preguntas de forma más rápida y sencilla, gracias a una mejor definición de la información.
 
 
 
 
  • da Silva, R. E., morim da Costa Santos, P. L. V. A., & Ferneda, E. (2013). Los Modelos de recuperación de la información y la web semántica: la cuestión de la pertinencia. Informação & Informação, 18, n° 3, 27–44. Retrieved from http://www.uel.br/revistas/uel/index.php/informacao/article/view/12822

Abstract: La preocupación con la recuperación de la información en los sistemas informáticos precede al desarrollo de los primeros ordenadores personales. Los modelos de recuperación de información han sido y son hoy ampliamente utilizados en bases de datos específicas de un campo cuyo alcance se conoce. En entorno de la Web, existe una necesidad de un mayor cuidado con respecto al tratamiento de información descriptiva y temática. Objetivos: Evaluar la forma en que la cuestión de la pertinencia se trata en los modelos de computadoras principales de la recuperación de la información y, sobre todo, ya que el problema se soluciona en el futuro de la Web, llamada de Web Semántica. Metodología: Investigación bibliográfica. Resultados: En los modelos clásicos estudiados aquí, se dio cuenta de que la principal preocupación es la recuperación de los documentos cuya descripción es la más cercana a la expresión de búsqueda utilizada por el usuario, lo cual no implica necesariamente que esto realmente necesita. En la recuperación semántica es el uso de ontologías, característica que se extiende la búsqueda del usuario para una amplia gama de posibles opciones relevantes. Conclusiones: La relevancia es un juicio subjetivo e inherente para el usuario, que dependerá de la interacción con el sistema y, especialmente, el hecho de que se espera recuperar en su búsqueda. Los sistemas que se basan en un modelo de relevancia no son populares, ya que requiere una mayor interacción y dependerá de la voluntad del usuario. La Web Semántica es hasta ahora la iniciativa más eficiente cuando se trata de recuperación de información en el entorno digital.



  • Soler Monreal, C., & Gil Leiva, I. (2010). Posibilidades y límites de los tesauros frente a otros sistemas de organización del conocimiento: folksonomías, taxonomías y ontologías. Revista Interamericana de Bibliotecología, 33, n° 2, 361–377. Retrieved from http://www.scielo.org.co/pdf/rib/v33n2/v33n2a4.pdf

Abstract: A partir de variables tales como objetivo, origen, entorno, estructura, productores y costos de elaboración, se realizó un análisis comparativo entre tesauros, folksonomías, taxonomías y ontologías como sistemas de organización y representación del conocimiento. Aunque estas herramientas comparten el mismo objetivo, sus características están en relación directa tanto con sus aplicaciones como con su complejidad. Los resultados han sido sistematizados en tablas duales. Se concluye que los ambientes digitales han propiciado la reutilización y adaptación de herramientas tradicionales de representación del conocimiento, como ocurre con las taxonomías y folksonomías; han permitido el paso natural de algunas herramientas del mundo analógico al electrónico, como son los tesauros; y han propiciado el desarrollo de otras nuevas, como es el caso de las ontologías. También se pone de presente que estos sistemas de organización y representación del conocimiento no son incompatibles entre sí, y que de hecho, pueden incorporarse simultáneamente en el diseño de una misma herramienta web.



  • Tolosa, G. H., Bordignon, F. R. A., Peri, J. A., & Banchero, S. (2005). Creación de una colección de prueba de literatura científica en español para evaluar sistemas de recuperación de información. In VII Workshop de Investigadores en Ciencias de la Computación (pp. pp. 20–25). Río Cuarto. Retrieved from http://sedici.unlp.edu.ar/handle/10915/21173

Abstract: La evaluación de sistemas de recuperación requiere contar con colecciones de prueba compuestas por un corpus de documentos, un conjunto de necesidades de información (tópicos) y los juicios de relevancia. Éstas permiten evaluar diferentes estrategias y sistemas ya que permiten comprender la naturaleza de los resultados, compararlos con otros y reproducir pruebas en iguales condiciones. El proceso de armado de una colección es una tarea que requiere un importante esfuerzo humano ya que no se puede realizar (de manera completa) automáticamente. En este trabajo se plantean los lineamientos para la construcción de una colección de prueba en español de dominio público a partir de artículos de investigación en el área de la informática y las ciencias de la computación. La creación de esta colección (destinada a la evaluación la recuperación “ad-hoc” ) persigue como primer objetivo poner a disposición de la comunidad universitaria un corpus de documentos semi-estructurados que permita la evaluación de diferentes estrategias de búsqueda. Además, debido a que el tema de recuperación de información se encuentra en pleno crecimiento consideramos que en los próximos años se evaluará su incorporación como tema de grado en diferentes carreras. Es por ello es que creemos que este corpus sería un buen recurso didáctico para realizar tareas de laboratorio. Un segundo objetivo consiste en recolectar y procesar la mayor cantidad posible de artículos científicos publicados en español y crear una colección mayor que sirva para investigación de diversos aspectos del área de recuperación de información como: extracción de información, clasificación, respuestas a preguntas, resumen automático, entre otros. Se presenta una metodología para la selección de los documentos, la demarcación de su estructura, la creación de los tópicos y de los juicios de relevancia, junto con una primera prueba con un conjunto reducido de documentos.



  • Tramullas, J. (2012). Web semántica en bibliotecas: del material del que están hechos los sueños. In Anuario ThinkEPI 2012 (pp. pp.190–192). Barcelona. Retrieved from http://eprints.rclis.org/18184/

Abstract: Es una revisión de la estructura y contenido del informe final del W3C Library Linked Data Incubator Group sobre web semántica en bibliotecas.




  • Vallez, M., Rovira, C., Codina, L., & Pedraza, R. (2010). Procedimientos para la extracción de palabras clave de páginas web basados en criterios de posicionamiento en buscadores. Hipertext. Net, 8. Retrieved from http://www.upf.edu/hipertextnet/numero-8/extraccion_keywords.html

Abstract: En este artículo se presenta un proyecto de investigación que tiene como principal objetivo el desarrollo y la exploración del potencial de una herramienta que facilite la asignación semi automática de palabras clave a documentos web. Se describen de forma sintética las principales características y prestaciones de la herramienta que se está construyendo y se analizan las bases teóricas que la justifican. La investigación que planteamos explora las posibilidades de la automatización en la asignación de palabras clave con procedimientos relativamente sencillos basados en modelos masivamente usados en las disciplinas de la recuperación de la información, el posicionamiento en buscadores y las ciencias de la documentación.



  • Velandia Moya, A. M. (n.d.). MODELOS DE RECUPERACIÓN DE INFORMACIÓN. Conceptos. Retrieved from http://sites.google.com/a/bt.unal.edu.co/advance-topics-in-ir/resources/Modeling.pdf

Abstract: Presentación de 36 diapositivas. Detalla los principales modelos de recuperación de información



  •  Villa, M. de la, García Pérez, S., & Maña, M. J. (2011). ¿ De verdad sabes lo que quieres buscar? Expansión guiada visualmente de la cadena de búsqueda usando ontologías y grafos de conceptos. Procesamiento Del Lenguaje Natural, 47, 21–29. Retrieved from http://journal.sepln.org/index.php/pln/article/view/957

Abstract: Múltiples trabajos hablan de la escasez de términos que se suelen usar en las cadenas de búsqueda lo que dificulta que se discriminen eficientemente los documentos de interés del usuario. Los buscadores devuelven miles de documentos recuperados, produciéndose resultados inadecuados, sin una conexión semántica con la consulta y escasamente relacionados con las necesidades del usuario. Este hecho se agrava en un ámbito biomédico donde el usuario normal no suele dominar el vocabulario especializado necesario para la precisa definición de sus necesidades de información. Presentamos un método de expansión y enriquecimiento de la cadena de búsqueda mediante la creación de un modelo visual esquemático, un grafo de conceptos relacionados semánticamente con la ayuda de ontologías como UMLS y Freebase.




  • Villaplana, R. (2013). Posicionamiento Web: Optimización del Social Media en un sitio Web para mejorar el posicionamiento SEO. Retrieved September 26, 2015, from http://www.cloud-tic.com/posicionamiento-web-optimizacion-del-social-media-en-un-sitio-web-para-mejorar-el-posicionamiento-seo/


Abstract: El Social Media ha tomado un papel muy relevante en el posicionamiento Web. Conseguir que los contenidos de tu sitio Web sean compartidos, aumentar los likes de tus páginas, así como los +1 en Google +, son factores que se han convertido en fundamentales para mejorar el posicionamiento SEO. En este artículo veremos varios detalles a tener en cuenta para optimizar el Social Media en nuestro sitio Web.



  • Villaplana, R. (2013). Posicionamiento Web: Cómo conseguir aparecer en el Top 5 de Google. Retrieved September 26, 2015, from http://www.cloud-tic.com/posicionamiento-web-como-conseguir-aparecer-en-el-top-5-de-google/

Abstract: Mucho han cambiado los tiempos desde que Google empezó a convertirse en una de los principales motores de búsqueda a nivel mundial. Estrategias que hace unos meses podían funcionar en el posicionamiento SEO, ahora ya no sirven. Después de la última actualización de Google en el algoritmo Penguin 2.0, hay 3 claves fundamentales para conseguir posicionar tu Sitio Web en los primeros resultados de búsqueda



  • Villaplana, R. (2013). Posicionamiento Web: Cómo optimizar el SEO Local para tu Sitio Web. Retrieved September 26, 2015, from http://www.cloud-tic.com/posicionamiento-web-como-optimizar-el-seo-local-para-tu-sitio-web/


Abstract: Uno de los elementos más importantes a la hora de posicionar es tener en cuenta si el sitio está enfocado a un país, a un idioma, en definitiva, a un territorio. En este post veremos algunos factores a tener en cuenta para mejorar el posicionamiento SEO local de tu sitio Web




  • Viscaino, F., Lorio, A. A. di, & Baño, F. (2014). Proceso Unificado de recuperación de Información en SmartPhones. In Congreso Iberoamericano de Investigadores y Docentes de Derecho e Informática. Mar del Plata. Retrieved from http://ciiddi.org/congreso2014/images/documentos/proceso unificado de recuperacin de informacin en smartphones vizcaino.pdf

Abstract: La Universidad de FASTA y su grupo de investigación de Informática Forense , generó el proyecto PURI ( Proceso Unificado de Recuperación de la Información ) que permite dar un marco de formalidad y define un conjunto de fases, tareas, técnicas y herramientas que definen esta actividad, con el fin de guiar al Informático Forense en su labor. En Ecuador en general, en la ciudad de Ambato provincia de Tungurahua en particular, no existen antecedentes de investigaciones ni expertos que trabajen en esta temática, muchos menos utilizando procesos formales aplicables a las pericias informáticas en Smartphones . El presente estudio tomo como punto de partida el trabajo realizado por la universidad de Fasta y se lo adecuo en una pericia en Smartphone con el fin de tener un PURI adaptado a las necesidades de los dispositivos mencionados. Como resultado de este proceso surge la propuesta del PURI para Smartphone , resaltando los nichos carentes, total o parcialmente, de herramientas para el desarrollo de determinadas tareas



  • Zambrano Silva, S., Villanueva Pla, E., & Rus Molina, L. (2007). La perspectiva de los usuarios: recuperación de información y usabilidad. Anales de Documentación, 10, pp. 451–483. Retrieved from http://eprints.rclis.org/archive/00012103

Abstract: Se pretende dar un conjunto de ideas para mejorar la base de datos en línea del Defensor del Pueblo Andaluz, partiendo de un estudio de usuarios y el análisis de una bibliografía basada en la perspectiva de los usuarios. Nuestra intención es crear un interfaz que facilite la interactividad y que ofrezca un puente de unión para acercar la estructuración de la información que contienen los documentos a la estructuración de conocimiento del usuario. Todo esto para aumentar la satisfacción del usuario en el resultado de la demanda de información.



  • Alós Moya, A. (2011). Guía para el posicionamiento web. Universitat Politécnica de Valencia. Retrieved from https://riunet.upv.es/handle/10251/12063

Abstract: El objetivo de este proyecto será el exponer técnicas y métodos para mejorar el Posicionamiento Web, realizando una introducción sobre numerosos conceptos y nociones previos necesarios p ara facilitar el entendimiento por parte del lector Objetivos específicos de este estudio serán: Exposición de conocimientos previos y relativos a las técnicas de Posicionamiento Web. Análisis sobre el funcionamiento de los buscadores y motores de búsqueda asociados , de modo que se puedan entender a posteriori las técnicas empleadas para mejorar el Posicionamiento Web sobre los buscadores. Descripción sobre los diversos factores que pueden afectar al Posicionamiento Web de un sitio o página. Estos son factores de tiempo, factores en la página y factores externos. Técnicas fraudulentas. Guía general y ciclo de vida del Posicionamiento Web







 

No hay comentarios:

Publicar un comentario