Idioma: Español
Fecha: Subida: 2021-02-22T00:00:00+01:00
Duración: 49m 05s
Lugar: Curso
Visitas: 1.033 visitas

20210201 1-Presentación general de ASIO

Transcripción (generada automáticamente)

Buenos días, bienvenidos a la presentación a la formación de. Supongo que todos sabíamos, habríamos querido perdido parte de esta formación fuera, presencial, pero bueno, dadas las circunstancias, es imposible hoy y vamos a ver la presentación general de del desarrollo que hemos hecho la empresa nos enviábamos tema nosotros y el jefe de este proyecto por parte de Nóos y la presentación va a tener estas partes. Vamos a hablar primero, hacer una presentación de breve de las dos empresas que Nutt dos acciones que no te están desarrollando. Así son los. Si la Universidad de Deusto, una presentación sobre el proyecto de Hércules en general, una descripción de Asia general y luego un aspecto que creo que es importante resaltar, porque porque fija el marco de todo el proyecto sido que hay una parte de Datos, ha abierto. Si el azar, dos el uso de datos de conocimiento, por último, una descripción de las dos partes que tienen ha sido que es una parte infraestructura antológica y con otras culturas. Entrando en la presentación de las empresas Nóos, es una pyme que lleva más de 10 años en el ámbito, haciendo desarrollos en el ámbito de la web semántica usando brazos de conocimiento y construyendo los colaboramos con las organizaciones en transformar la inteligencia humana en inteligencia artificial o tecnológica, y nuestro objetivo es tener con facilitar a las personas el acceso a la vida digital más feliz. Lo que hacemos es una con realismo y solidez, hacer una transformación del entorno, pero siempre teniendo en cuenta que la tecnología es para personas y pensando en el largo plazo y con un objetivo objetivo claro que es hacer fácil lo difícil conseguir una vida digital, Félix. Entonces lo que pensamos es que la tecnología tiene que estar en su sitio. Nunca. No nos gusta el término de transformación digital del todo. Somos una empresa que está en España, queremos que desde España se puede ser una tecnología relevante, que compita con tecnologías, que no son españolas y a veces tienen otra intención, más allá de dar un servicio a las personas; es una inteligencia artificial en español, y nos basamos en que todo está basado en el uso de inteligencia artificial, basada en este conocimiento. es nuestra visión tecnológica. Entendemos que la tecnología no es neutral, no da igual hacer las cosas de una manera o de otra. La tecnología marca, marca el resultado. Estos son algunos de nuestros de nuestros proyectos y clientes en el ámbito de la cultura de la Administración Pública, Educación y Universidad, banca y empresa. En cuanto al texto que luego a las 10, estará Diego López de Ipiña, que es el responsable por parte de Deusto en este proyecto, la Universidad de Deusto es un referente internacional en muchos ámbitos. Está fundada en 1.886 cuenta con seis Facultad de Ciencias Sociales y Humanas, Derecho Ingeniería, Psicología y Educación Teología, y en este proyecto colabora un grupo que se que como este, un objetivo que está bastante alineado con nuestro, es decir, usar las tecnologías de la información y la comunicación para él, para el bien y para las personas y entendiendo que las personas y las máquinas pueden colaborar y generar unos resultados mejores que cada una por su cuenta, la investigación de Morelos, son estas cuando el se mantiene el boe, etc. Y, por supuesto, tienen una gran experiencia en el desarrollo de de la web de la web semántica y ingeniería, antológica. Algunos de sus proyectos en el pasado, pues bueno. Son proyectos que tienen que ver qué tienen que ver con Analytics, con el uso del agua, se mantiene de datos con interoperabilidad, etc. En cuanto al proyecto Hércules, el proyecto Hércules es un es un proyecto ambicioso que lo que busca es crear un sistema de gestión de la investigación que esté basada en datos abiertos y se tiene una visión global de los datos de investigación del en España. Los objetivos son. Mejorar la gestión, el análisis de los datos y obtener sinergias entre universidades y el público en general. El proyecto Hércules se estructura en torno a 2, dos pilares por parte de la arquitectura, que es el proyecto Asia, y, por otra parte, la. La generación del prototipo innovador del sistema de gestión de la investigación es Hércules. El proyecto se divide, el proyecto Hércules se divide entre sus proyectos por una parte de Asia, que es la arquitectura, se mantenga de datos del Sur y la infraestructura tecnológica, y es el sistema de gestión de la investigación y el esma, que es enriquecimiento de datos a partir de internet y desarrollo de métodos de análisis semántico. Ha sido, tiene dos partes, digamos, por una parte del desarrollo de la plataforma eficientes para almacenar, gestionar y publicar los datos del ensayo. Estos datos estarían basados en la infraestructura antológica y tendría la capacidad de sintonizar instancias en diferentes universidades y, por otra parte, la creación de una red de antologías que pueda ser usada para describir con precisión y gran variedad alta los datos del dominio de extender la investigación. En cuanto a si se trata de hacer un prototipo innovador del sistema de gestión integrada de la investigación, que pueda ser instalado, desplegado en cualquier universidad, incluye todas las actividades de gestión que están relacionadas con la investigación, y tendrá que integrarse con la arquitectura, se o podrá integrarse mejor dicho y el tercero chef más que el enriquecimiento de datos a partir de internet y desarrollo de métodos de análisis semántico en este proyecto se trata de identificar, extraer y analizar y evaluar los datos obtenidos de las desde las universidades, completados con información de fuentes externas de datos de investigación. En cuanto a la comunicación entre los proyectos, a grandes rasgos podemos decir que se enviado a-ha sido consolidar datos hacia un nuevo central. Unidad este nuevo escenario unifica datos homogéneos. Entre nosotros, esma explota los datos del nodo central y enriquece los datos de fuentes de internet y encima, por fin se conecta con la sgae para la gestión de proyectos. En cuanto al sido como proyecto, que es lo que nos lo que nos trae aquí el proyecto en breve, se trata de construir y explotar un brazo de conocimiento unificado. Interrogarle es extensible y expresivo de la investigación universitaria del sistema universitario español. Hércules. Tiene dos dos partes, por una parte, infraestructura o antológica, que sería la uvi y la voz de su nombre, en el que se va a crear una red de antologías que se llama a la red de antologías -Hércules Río h, que pueda ser usada para escribir con fidelidad y alta gradualidad los datos del de la gestión de la investigación. Por otra parte, tenemos a la arquitectura se mantiene, que es un paquete de ley, es decir, es el de alguna manera un respaldo de datos con estructuras. Se mantiene que se puede usar para para, para explotaciones avanzadas, que tiene que ser una plataforma eficiente que permite almacenar, gestionar y publicar los datos del modelados con la infraestructura, con con la antología, definirá la infraestructura antológica, y que tenga la capacidad de sincronizar instancias de diferentes universidades, y, posteriormente, habilitar explotaciones inteligentes de la información. La arquitectura de aseo se caracteriza por los siguientes procedentes. Puntos. Cada uno de Asia tiene cuatro módulos. Tenemos que la carga de la consulta, la web pública y la web privada. Cada nodo ocio consolidado puede consolidar los datos hasta el nuevo unidad, datos homogéneos, entrenados. Cada nodo ha sido cuenta con numeroso conocimiento completo de sus entidades y en lo central; contaría con un grado de conocimiento de la globalidad del Sur que recibe década del sistema universitario español que recibe de cada nuevo. Tal y como lo concebimos nosotros, y como está concebido, el proyecto ha sido, serían la base para la construcción del sistema inteligente de la investigación de la universidad española. El marco tecnológico de para conseguir esto es por una parte del programa de Inteligencia Artificial, interpretada, semánticamente. Por otra parte, la explotación por parte de humanos y máquinas de las posibilidades que da el enlazado de datos, en un plazo de conocimiento, no les he visto bueno, introduzco los términos en inglés porque, bueno, a nivel de referencias, de referencias técnicas, pues a veces se usan más que los términos en castellano; la infraestructura antológica, como hemos dicho antes, se va a definir el modelo antológico del desgracia de conocimiento de la investigación universitaria. Esto es, la red de antologías -Hércules, le revocó a Che y la arquitectura se se van a desarrollar e implementar los componentes que hacen posible la carga interrogación de este brazo. En este punto, bueno, hemos introducido dos conceptos aquí de limpieza y no queríamos aclarar, bueno, que hacer un una introducción a cada cosa y que porque son en este proyecto especialmente importantes. Una de las vías del proyecto ha sido, es que tiene que proporcionar datos enlazados y también abiertos, es decir, tiene que ser limpieza. Si vamos a la definición de datos abiertos son aquellos que pueden ser utilizados; reutilizados y distribuidos por cualquier persona libremente se encuentran sujetos, como mucho, un requerimiento para que se diga de dónde, de dónde vienen; ya que se compartan la misma. De la misma forma en la que se ha obtenido. Digamos que esto se se resumen 3, tres cualidades. Por una parte, la disponibilidad y el acceso. Esa información tiene que estar disponible una forma que sea conveniente y modificable como un todo y a un coste razonable, preferiblemente por internet, tiene que ser reutilizable y distribuir; es decir, tiene, tienen que los términos de uso lo tienen que permitir que terceros, puedan reutilizar los y redistribuirlo integrarlos con otros conjuntos para hacer otras explotaciones y tiene que permitir una participación universal. Es decir, los los datos no pueden estar limitados a discriminaciones de esfuerzo, personas o grupos o rescisiones de algún tipo extraño. Entonces, el asunto fundamental, de, de ser restrictivo para que un dato tenga que ser abierto es que es la única manera de garantizar la interoperabilidad. Esto tiene unos beneficios prácticos, es decir, la capacidad que da para poder combinar estas estos datos con otros datos y desarrollar nuevos productos y servicios. Es un asunto, es un asunto clave y es un punto importante. En el proyecto. Hay un asunto sobre los datos abiertos, que bueno el movimiento en general lo que dice que es lo más importante es que los datos estén expuestos cuanto antes. Esto es cierto, pero bueno, tiene más pegas abierto, en realidad puede ser todo. Esto. Puede ser un fichero ficheros, estén aunque sean formato propietario. Los datos pueden ser abiertos. Pueden ser un fichero ficheros en formato cese, Google, que tiene algunos problemas con los textos, con algunos formatos de rendimiento general. Puede ser una pie pueden ser, pueden ser datos inteligentes, que nos datos con información acerca de los datos o pueden ser limpieza. Son datos abiertos lanzado si en la tabla con otros actos la conclusión, pues no todos los datos abiertos son iguales y permiten los Mossos y ofrecen las mismas posibilidades, si bien la rapidez es un factor de innovación. La incomodidad es un freno, es decir, los datos tienen los datos abiertos, pueden tener distintos problemas, es decir, hay que descargar si se van a obtener con una descarga o con una piel. El modelo que los defines cerrados abierto es. Un estándar, es extensible expresivo. La relación se pueden relacionar datos. Ahí hay un piso de vistas, hay un acceso a consultas. Los datos se pueden enlazar, o están enlazados. Quién es el responsable de actualizar la información que lo utilizaba el propietario? Cómo se difunden estos datos? Hay un enlace de una web. En asuntos pasivos activó entonces el que es así al respecto de esta acción, lo que ofrece es una app para obtener estos datos. El modelo abierto va a ser público, es una antología que va a ser pública, va a estar publicada como un estándar, y está basada en estándares, y al ser una antología es expresivo y extensible. Los datos se pueden relacionar entre ellos mediante consultas, en este caso es Parker, se va a poder enlazar con fuentes externas o va a estar relanzado con fuentes externas, se debe disponer de una piel, y la responsabilidad de la actualización es el propietario de los datos, es decir, aquel que llegue a los datos siempre los va a encontrar actualizados, porque eso es responsabilidad del propietario, en este caso, de la Universidad. Por último, en cuanto a difusión de los datos, en este caso es una difusión web. En general de ing, que sorprende de ser el mejor medio para publicar datos abiertos, el mejor medio. En cuanto al proceso de conocimiento por hacer una introducción a lo que sería una razón de conocimiento, no había planteado hacer una una breve demo basándonos en las personas que estamos conectados, pero, bueno, como pudiera salir mal y cogido esto, es decir sí personas felices, que están conectadas a un zoom y vamos a suponer los siguientes, que son 16 investigadores e investigadoras y que tienen, y que hay un documento, un documento científico, como éste, que son los biomarcadores del Trastorno del Espectro Autista, etc. Que vamos a pensar que esta tiene tres áreas de conocimiento. Cada una de las personas que tenemos aquí en esta foto es una entidad. El PP, la publicación es otra entidad, las áreas de conocimiento son otras entidades. Entonces el documento está relacionado con estas áreas de conocimiento. Es decir, es un documento que trata genética, inteligencia artificial, neurociencia. Por otra parte, el documento tiene tres autores, son estas tres son estos tres queda aquí esto genera una relación entre ellos, que no es que no está explícita, pero es implícita, es decir, tienen un documento en común, tienen una un resultado de investigación en común. Por otra parte, puede haber tres personas, tres investigadores o investigadoras que tengan relación con el área de conocimiento de la inteligencia artificial. Esto a su vez genera una relación entre ellas, es decir, son tres personas que tienen un área de conocimiento en común. Aquí sí sí si quisiéramos, por ejemplo, saber qué persona, qué persona tiene experiencia en la investigación, en inteligencia artificial y neurociencia, pero su especialidad es inteligencia artificial, entonces, que sería esta persona. Entonces esto en realidad es una especie de deducción. Una inferencia. Por qué esta persona tiene como área de conocimiento la inteligencia artificial. A su vez el hay un documento que está relacionado con neurociencia y ese documento tiene una autora, que es esta persona. Entonces esto es una manera de la forma en la que el grifo de conocimiento permite hacer relaciones entre las entidades que representan. Ha explicado explicadas estas relaciones en francés simples, que son predicadores de primer orden. Sería que Laura es autora de la publicación biomarcadores del central genéticas. Un área de conocimiento de esa publicación. Neurobiología es otro área de conocimiento de la publicación, inteligencia artificial es una era de conocimiento de la publicación, Laura investigan el área de conocimiento, inteligencia artificial. Quizás autores otro autor de la publicación videomarcadores él quiera investigar el área de conocimiento genética. La conclusión que se podía extraer de de esas relaciones explícitas es que las personas que investigan en el área de conocimiento de Inteligencia Artificial, que han participado en investigaciones en conocimiento de la genética, serían Laura y otras personas que estuvieran en ese mismo caso. Así pues, un brazo de conocimiento es una forma de integrar y representarla y representar la información heterogénea, distribuida que permite descubrir y de investigar cualquier tema de forma profunda, intuitiva. Al final esto lo que ofrece es una web que es semánticamente consciente, los lazos de conocimiento, lo que nos permite dotar de sentido común a nuestros sistemas, de manera que puedan desarrollar inteligencia contextual en un dominio amplio, conocimiento en este caso de este tipo de diferencias como la que hemos hecho en el ejemplo anterior. Sería un sería un caso de este, de esta inteligencia contextual hablando, siempre de estos términos, de consciente e inteligencia y demás, entre comillas. Los brazos de conocimiento por, por poner un poco en donde estamos, en el ámbito general de la tecnología para Garner en 2019, esto era una tecnología emergente que estaba más o menos la mitad del ciclo de su vida en el 2020. Consideran que está prácticamente? Pues que ahora es un concepto que tecnológicamente es relevante, es parte de las principales tendencias tecnológicas actuales. Entrando ya en Asia, vamos a comenzar por la parte de infraestructura antológica. En este su proyecto, digamos, de lo que se trata es de definir el modelo antológico del grifo de conocimiento de la investigación universitaria. Esto se va a hacer mediante la creación de una red de antologías que va a poder ser usada usada para describir con fidelidad y anualidad los datos del dominio. Esto, el acrónimo que usaremos era arriba. La red de antologías -Hércules tenía unos requerimientos en su su diseño, por una parte, analizar los escenarios posibles, Escenario este uso, como el mapa de conocimiento nacional, cuadro flexibles, búsqueda de socios, selección de grupos de investigación, el análisis de funcionalidades de un sistema, es decir, que se pudieran gestionar proyectos convocatorias y ayudas producción científica currículum contacto de patentes ética etc el análisis de las entidades para identificar posibles atributos clasificaciones taxonómica relaciones fuentes de datos etc y por último unos requisitos funcionales y no funcionales, como serían los principios de Open de eta que hemos visto antes, principios Feher, el uso de persistentes multilingüismo, interoperabilidad con otras, antologías, integración, con fuentes en formación existentes, las escombreras de conocimiento externos de eta y la la materialidad y por último, que fuera una publicación con licencia o piensos. Los principios que han seguido en el diseño de la red de antologías Hércules, que luego explicará más en detalle Diego López de Ipiña, la siguiente, la siguiente. El siguiente modelo a partir de las 10 son la reutilización, es decir, modelar los conceptos existentes y consolidados, la extensión, modelar los nuevos conceptos identificados en el análisis o conceptos propios de la universidad española que no estuvieran en las antologías y vocabulario existentes, y, por último, usabilidad documentar los atributos de relaciones y restricciones para facilitar el uso posterior de la red de antologías Hércules por parte de desarrolladores y usuarios. El esquema general de la antología de la red de antologías Hércules, este nuevo Diego, entrará más en detalle. Tenemos entidades relevantes como Noble sería la persona los investigadores tenemos proyectos organizaciones actividades producción científica de todo tipo. En cuanto a los principios que hemos citado antes Ferrer, viene de. También entiendo que es un juego de palabras, porque significa justo. Bueno sea, serían datos buenos o no sé si cómo, traducirlo español, pero bueno, datos adecuados. Entonces los estos principios dan unas directrices para la publicación de recursos, que puede ser conjuntos de datos, códigos, flujos de trabajo, etc. Para que sean localizables accesibles, interoperable sido reutilizables. Los principios se refieren a tres tipos de entidades. Son tanto los datos metadatos como infraestructura. Podemos decir que el empiezo es el mejor medio para ser y igual que es el mejor medio para publicar. Los príncipes Fer cada uno de los grandes principios, fer, tienen unas divisiones en cuanto a que sea encontrarle esto, quiere decir que los datos, los datos y los datos deben ser fácilmente deben ser fáciles de encontrar tanto para los seres humanos, para las paralelas, para las personas como para las máquinas. En especial, que tenga datos que sean elegibles por máquinas para que el descubrimiento se haga o pueda ser automático. Los principios son cuatro a los metadatos se les asigne un identificador único. Los datos se describan. Comentado Torrijos, los metadatos, incluyan explícitamente el identificador de los datos que describen los datos, se registraron un recurso de búsqueda en este sentido, Méndez ha proporcionado Nuri, que es un identificador único, proporciona datos descriptivos proporcionan un identificador y desde luego un medio para registro, indexación en cuanto a accesible, una vez que el usuario encuentra los datos requeridos, necesita poder acceder a ellos tal vez con con autenticación o sin ella pero bueno lo que necesitas poder acceder entonces los los los principios en los que se divide accesibles sería que los metadatos son recuperables mediante su identificador, utilizando un protocolo de comunicaciones normal. El protocolo tiene que ser abierto, gratuito y de aplicación universal, y el protocolo tiene que permitir un procedimiento de autenticación y autorización, si es que es necesario, y, por último, los metadatos son accesibles, incluso cuando los datos ya no están disponibles. De nuevo le sorprende el acceso a los datos mediante con un protocolo abierto que proporciona persistencia incluso en el caso de borrar las instancias de los metadatos, cuando menos en cuanto a interoperable. Esto quiere decir que los datos se tienen que poder integrar con otros datos, porque, en general, es lo que la gente espera. Poder integrar los datos con otros. Los principios serían. Los metadatos, utilizar un lenguaje formal que sea accesible, compartido y para representar el conocimiento, utiliza un vocabulario es que a su vez, siguen los principios fehr, y los metadatos incluyen referencias cualificadas a otros actos de nuevo. La inquietud representar los datos mediante antologías; utiliza y propone vocabulario estándar abierto y accesibles, y permite enlazar con otras. El último principio, que es el de reutilización, es optimizar la reutilización de los datos. Para eso es fundamental que los datos descritos, los principios que se describan ampliamente con la proeza de atributos que sean relevantes, que estén liberados, con una licencia de uso de datos clara y que estén asociados a una procedencia detallada, y, por último, que los metadatos y los datos cumplan con los estándares de la comunidad en ese dominio. Aquí nació utiliza, va a utilizar los ricos y descriptivos, incluimos la licencia y la procedencia de los datos, y es un modelado adecuado para este dominio de conocimiento, que es el de gestión de la investigación. El desarrollo de la infraestructura antológica se sustenta en 4, 3, tres puntos. Por una parte, los principios de diseño que hemos citado antes de que se pueda reutilizar, extender y usar. Tenemos una documentación de tres tipos, documentación descriptiva, documentación para y documentación formal, de publicación de antologías, y tenemos algunas preguntas de competencia, que es un conjunto de consultas, que es extensible que la antología debe ser capaz de satisfacer, de tal forma que posibles modificaciones posteriores no supongan pérdida de las funcionalidades. Entramos en el segundo módulo, que es el de la arquitectura. Se mantiene, es el conjunto de componentes que permiten explotar los datos moderados con la red de antologías -Hércules. La arquitectura que tiene tienen estas características, cada nodo tiene cuatro módulos de carga, pide consulta pública o privada; dos nodos. Se consolidan datos. En el nuevo unidad hasta el no unifica datos homogéneos entre nodos y cada nodo. Así cuenta con un brazo de conocimiento completo de sus entidades, dominio de gestión de la investigación. Por último, el nodo central, unidad cuenta con un brazo de conocimiento, con la globalidad de datos del sistema universitario español que recibe de cada nodo. El nuevo centro, unidad tiene unas funciones específicas sincronizan; los datos distribuidos de cada universidad permite la explotación agregada de los datos de honestidad. La existencia de una garantiza la disponibilidad y el rendimiento y permite la la conexión de datos y detección de equivalencias entre universidades. Si no, no unidad. Estas funciones anteriores tendrían que realizarse mediante otro tipo de consultas en cada uno de los dos darían problemas de rendimiento, disponibilidad, consistencia y porque no había manera de garantizar al usuario que los datos que está recibiendo realmente son todos los que debería recibir. En la consulta. Perdonó Esteban. Puedo hacer una pregunta si supongo que sólo lo tratará con más detalle en este nivel de detalle, pero quiere esto decir que cualquier modo de cualquier universidad que se quiera registrar el nodo central finalmente va a tener que tener mis especializadas no va a bastar con general r No no no no no me explico bien si he dicho eso no hablo mal. No sé el. El no de unidad es, es el es un modo, igual que los otros, que los otros nuevos, en el sentido de que sirve rdc y tiene un líquido además lo que hace es que cada nodo, digamos, si inconexas sus datos hacia la India envía datos hacia la unidad. No hay que hacer nada particular, más que conectarse, no hace falta ninguna específico ni nada de lo que se ha preguntado con mano de tomos, y supongo que solo le vale un acuerdo de tardaremos más gracias. La arquitectura ya un poco más gente, más detalle de estos componentes, tenemos por una parte, la carga que recibe datos puede recibir datos de fuentes como XML base de datos o sistemas de gestión, como puede ser culé, se dentro de la de la carga. Tenemos unos modelos de gestor de datos generados de datos con el nodo central, con lo que estamos comentando ahora, y las autoridades gris tenemos el a pie de consulta, que permite conectar con con la parte de la web pública el servidor para publicar datos, para, digamos en general para personas, pero también para máquinas en el caso del servidor que Data tenemos el que digamos aunque aquí no estaba puesto bueno, tiene un componente público, un componente privado, es decir, hay parte de los de los datos que van a estar en el brazo, conocimiento que probaba que no van a ser de naturaleza privada porque no se pueden publicar. Entonces habrá un parque que sirva datos exclusivamente públicos y otro para los administradores que tendrán acceso a todos en la parte de la web privada, básicamente está el gestor de documentación gestor de la tasa exige de usuarios. Yendo un poco componente componente, bueno, antes antes que eso de una forma de una forma general, cuál es el proceso de carga, variación y descubrimiento, a grandes rasgos sería si es decir, el digamos que el Vázquez solicita datos nuevos y modificados al servicio, ahí me hk interrogarles e idealmente ser, pero podría ser cualquier otro tipo de sistema. El servicio cumple el estándar o ahí mh. Los datos se reciben en la carga. En un formato XML que tiene. Tiene una definición y se ve. Los datos validan contra la antología del río h y, si disculpas, aquí hay un error y se convierten en rdc. Se descubren los enlaces, se reconcilian los datos existentes y se detectan las equivalencias en el descubrimiento. Los datos se publican en la red gestor y, por último, se han unido a eta, que cuenta con sus propios procesos de transformación y validación. Hércules se puede conectar con cualquier mensaje preferentemente Hércules, mediante un conjunto, mediante por una parte, las peticiones al servicio de mh. Es un protocolo de lo penal, iniciativa cuya fuente de datos sería una, tiene un formato y que se adapta a las diversas fuentes de datos es. Se conecta, con los procesos de adhesión de carga, descubrimiento, validación y publicación, y se pueden definir múltiples fuentes de datos; es decir, podría haber una universidad que no tuviera escuelas se tuviera. Por ejemplo, una quisiera incorporar datos de los investigadores mediante una conexión con CBS y los datos de la gestión de los proyectos de un sistema, de un sistema propio de otro tipo, entonces podría hacerlo. Podría contar con estas dos fuentes de información y sincronizar controlados. El sistema también este mismo lo que permite es una carga inicial de datos que habría que hacer en la puesta en marcha. La factoría de Ourense, un componente importante, porque los rdc los los datos, se refieren en generarse, que sean formalmente correctos, como genios sean persistentes, incluso más allá de la vida del proyecto. Entonces para ello lo durante el proyecto se ha desarrollado un documento de buenas prácticas, la especificación del esquema de Ulises Hércules que está inspirado por la norma técnica de interoperabilidad de la acción de recursos de la información; un software, una factoría y adecuado para cada tipo de entidad en la que se puede definir como hemos aquí pues por una parte, lo que sería él con el dominio y luego cada uno de los fragmentos que proporcionan una cierta información sobre la naturaleza de la entidad que representa. En este caso sería una investigadora investigadora, en este caso un área de conocimiento. Por último, hay un documento de adhesión a las buenas prácticas de gris que se debería aceptar y publicar en el seno de cada universidad, en el que se indica que las suyas van a tener estas cualidades que estamos aquí que van a ser persistentes. El proceso de validación se efectúa mediante el uso de ese saque, que es una recomendación del 3, tres se ven Word, Wide Web Consortium. Es un lenguaje para validar nunca rdc contra un conjunto de condiciones. En nuestro caso, disponemos de un conjunto de variaciones que se pueden relacionar con fuentes de datos distintas. Esto lo hemos hecho así porque, como hemos dicho antes, puede ser que uno tenga fuentes de datos diferentes, cada una de ellas convalidaciones distintas y tal vez con calidad de los datos distinta. Entonces, para permitir que los datos se integren en la Red Hércules, necesitamos que la validación o que pueda haber valoraciones distintas según la fuente por último, las iPS, se generan. Una se generan automáticamente a partir de las restricciones de la odontología y luego se puede modificar manualmente. El uso de administrador cuenta con unas herramientas para hacer esta gestión. Una vez que los datos están cargados desde Lewis se ejecutan los siguientes procesos descubrimiento que serían; reconciliación, descubrimiento, enlaces y detección de equivalencias. La reconciliación sirve para evitar la duplicación de entidades mediante la aplicación de unas reglas, es decir, si se incorporan, si se incorporan datos de un investigador que pueda ser que puedan estar incompletos, porque solamente está el nombre lo que consigue esto es reconciliar esa entidad, que llega con una información parcial, con una que ya pueda estar en el sistema el sistema de reconciliación, toma decisiones autónomas y supera un cierto umbral. Si se queda en un rango de validación no supera ese umbral y se queda en un rango de, en un rango determinado. Lo que va a hacer es consultar al usuario, pedirle una validación. Decirle que esta entidad es ésta, y, por último, bueno, hay que decir que el proceso de reconciliación no solamente usarlos los datos que ya estén encargados en Asia sino los datos que se hayan obtenido en el descubrimiento de enlaces de fuentes externas y desde Niigata, entiendo. El descubrimiento de enlaces. Lo que hacemos aquí es obtener identificadores que hacemos con enlaces a fuentes externas y unir a eta obtenemos información para la reconciliación y, por una parte, es un proceso con ejecución continua, parte de que se ejecuta en el momento en el que los datos se cargan en el sistema. Tiene una ejecución continua para buscar nueva información, que tal vez en el momento en el que se cargó el dato no estuviera disponible. Por último, está el proceso de detección de equivalencias que obtienen las entidades. Otros nuevos ha sido para ello usa el no de unidad, y también es una información que se utiliza la reconciliación de entidades, es decir, en el proceso de reconciliación. Es posible que te llegue un una entidad que tú no tienes en tu sistema, pero igual sí que está en el sistema de alguna otra universidad y, por tanto, ha ido al baño. Otro componente de la arquitectura se mantiene, el servidor, que trata de hacer ver, es un combate que permite la que permiten la publicación de los datos que están en el gestor. Como datos abiertos y enlazados el servicio tiene las siguientes características, que tiene un interfaz html con estilos y formatos personalizables, que permite la presentación de tablas y grasos proporcionar los datos en formato PDF para máquinas cumplen las recomendaciones, que es una recomendación del dictado de plazo y cuenta con los servicios jurídicos que permite localizar entidades por el formato de con el que presenta. Es parecido a esto, por una parte tenemos datos y por otra, pues una representación queda, pues, en el formato tabla o formato gastos. Otro componente importante es el parque. Cuenta con un punto es parque que permite a usuarios y administradores consultar los datos del conocimiento que están en las redes gestor es parque, él no responde a las siglas. Protocolo es un protocolo de consulta y lenguaje de interrogación para abrazos rdc! Está normalizado por la última versión, es de uno punto 1, que es el año 2013, disponemos de un puente solo lectura para ser público, sin acceso a los datos privados. En general. Entendemos que la utilización de los datos viene por. Necesita 3, tres aspectos. Conocer la Red de Hércules, el uso de consultas, es parque, y el uso del láser. Con estos tres aspectos, un usuario puede reutilizar esa información. El receptor es el componente de la arquitectura que almacena el grado de conocimiento, formato, regresa dentro del desierto, actúa como un servidor de datos que responde a consultas. Si esto tiene otros nombres, a veces se llama servidores parques o rbs. La red de gestor ofrece el servicio de datos y consultas a la izquierda, hacer ver. Durante el desarrollo de hemos realizado un best bar para que cada universidad pueda elegir cuál es el receptor que más le conviene tener en cuenta. Eso sí que uno de los requisitos que tiene que cumplir esto no es opcionales, que cumpla, es que tiene que cumplir este estándar. Es Parker uno punto 1. Cuenta también con una web documental que permite hacer una publicación de páginas, que informen sobre el todo de la Universidad, puede tener contenido estático y contenido dinámico. Que esté obtenido desde la consulta o desde el parque. Con páginas de este estilo que pueden tener una representación, pueden hacer representaciones de datos o sí o simplemente informar sobre. Sobre el Palacio de la Universidad, entendemos que cada universidad lo que tendría que hacer es personalizar, los estilos y el contenido de estas páginas. Por último, ha sido, tiene una voz de Administración, proporciona una interfaz con las siguientes páginas, lo que permite administrar fuentes. Los consistorios de información permite gestionar las elipsis, la variación, la factoría de gris. Obtener toques para acceso a los Apis tiene unas herramientas de comprobación del sistema y permite administrar las páginas del documental. En cuanto a tecnología, hemos utilizado las siguientes. El desarrollo está hecho en punto en el punto en el colegio desarrollado como Microsoft como una evolución de Pontones; un coro ya es multiplataforma. Lo que se desarrolla se puede puede funcionar tanto en Windows Mac como sea y es un, está desarrollado bajo ambiciosa que software abierto. Está desarrollado con una arquitectura entendemos que esto favorece la la reutilización, los pies que hemos desarrollado están siguiendo el principio de comer tu propia comida para perros, es decir, no es una pieza aparte del de y del software sino que el software sea si usa las apps para funcionar no es otra cosa y entendemos que ofrece un modo sencillo de reutilización de componentes de los componentes de aseo. También se pueden utilizar como librerías en los desarrollos, pero nos lo recomendaría que vemos que es más limpio y sencillo implementar un servicio y reutilizarlo haciéndole una llamada mediante, mediante una interfaz htc. El repositorio de software en el que estaba sido es este con licencias de software libre, y en el repositorio hay mucha. Hay una serie de acciones que por cada versión que sube se genera una compilación, unos test unitarios en la cobertura de código y una interpretación del código. Consolar clave para ver cuál es la cuál es su calidad. Por último, el despliegue se puede hacer de dos formas. Como conjunto de servicios que se o mediante imágenes esto es bueno, ya gustos. Entre la gente de sistemas en general lo que prefiere es instalar mediante imágenes lo que les da una flexibilidad mayor. La infraestructura básica que necesita sería un conjunto de uno ovarios de máquinas con apache, otro para tareas de Cofidis, un receptor que sea compatible con el 1, punto, 1, use una base relacional. Pues es posible, se cuele para almacenar, algunas opciones de configuración, y un para la gestión de colas del proceso. Con esto sería la descripción del del sistema de una manera general. Tenéis alguna pregunta. Hemos llegado justo a las 10. O bien no se imaginado que todo el mundo lo piense parecidas, pero me ha parecido interesante que tenía muchas cosillas. Pero, bueno, esto es, esto es una introducción general y así es un proyecto bastante grandes, una introducción general lo que vamos a ir viendo durante las, durante los modelos y jornadas de los próximos días en los que entraremos en detalle en cada uno de estos puntos. Entiendo que algunas de las cosas que hemos contado están; no, no, tratan el asunto con mucha, con la debida profundidad, pero es que no, no, no es el momento ahora, sino que será más adelante. El tema de la red de antologías -Hércules, en particular, ahora Diego, va a explicarnos durante unas dos horas así en detalle cómo se ha desarrollado y qué características tiene. Voy a para la grabación.

Propietarios

Proyecto Hércules

Comentarios

Nuevo comentario

Serie: Formación lunes 1 de Febrero ASIO Gnoss (+información)

Descripción

Videos