Idioma: Español
Fecha: Subida: 2024-02-22T18:03:00+01:00
Duración: 42m 44s
Lugar: Murcia - Facultad de Derecho - Sala de Juntas
Lugar: Mesa redonda
Visitas: 144 visitas

Seminario: Ética de la IA y ética sanitaria. Más allá de la conformidad con el Reglamento IA

Descripción

Seminario desarrollado en el marco del Proyecto Empoderdat (Colaboran: Empoderdat, Idertec, CEBES, BESO y Fundación Séneca)

Transcripción (generada automáticamente)

Es un encanto. Llegar a Murcia, con compañeros que conozco, hace mucho años y debatir en este tema el tema de la ética artificial. Es un tema bastante complejo, digamos debatido y hoy, digamos. No quiero hacer una ponencia en blanco si no a hacer una ponencia que tiene más dudas que certezas, porque se ha discutido mucho ese tema de la ética, de la división, de contexto, y me he pasado algunas pensamientos digamos de gastar más de un poco en reconsiderar el marco general de relaciones que tenemos. Así que vamos a empezar. Bien, la primera y hace ver un poco el enfoque crítico, la ética, como herramienta de manipulación Por qué? Porque cuando hablamos de ética básicamente en el sector de la actividad, en el sector militar o de la herramienta para la sociedad digital, y muchas veces esta ética no es la ética que conocemos. En el sector de salud, donde hay una historia, una tramitación y también una experiencia hay un marco teórico muy vistoso, aquí la ética es de una ética, muchas veces construida por cuarta vez. El país nunca tiene su código ético. Twitter, tiene o se desconoce su código del, es y que significa ese interesante porque se presentan como valores éticos, valores que son, digamos, autorreferenciales, que reflejan también la postura de la empresa. Ya lo comentaba con los de. En parte. Ayer, por ejemplo, en el verbo tenemos caso de continuidad, que se han bloqueado porque el desnudado de Huesca y eso ha o una manera de entender 1 de don Ignacio aceptamos y espero llegue la alta, permiten un y eso es interesante porque la ética es una ética muy diferente de la eléctrica que entendemos en bioética, cambios de derecho y todo es una ética. Sé donde se ponen valores sin poner en claro cuáles son, las dice desde el valor. Otro aspecto es que la ética, como regulación defectuosa, en qué sentido? En el sentido que si ponemos valores y estos valores no están en un marco tradicional, era un marco definido. Estos valores se pueden manipular e interpretar, utilizar de manera muy larga, muy diferentes, y hay alto nivel de aproximación. Cuando digo que es importante que como dice la Unión Europea también poner al centro la persona, no, el inteligencia artificial tiene que ser tras y tiene que ir basado obrar la confianza es la confianza; la confianza es un cuadro, un indefinido. Diga, o en las cartas de ética también hay referencia al bienestar, pero al bienestar. Se pueden entender muchas formas diferentes. Por muchos países del mundo hay diferentes ideas de bienestar, así que la aplicación es indefinida, la labor de la concertada y no clara de lo concreto, porque todo este código ético es la evidencia que está dividida. Yo hablé con los de las grandes con mayo sobre la jefa de de volver a medir ya así; pero nosotros utilizamos marco ético, por nuestros productos todo sí; pero vaya usted a llegar donde está la evidencia de este marco. Es ético. Si hay informe a informe que dice que se han evaluado producto general mirando criterios y todo, pero en el detalle no lo sabemos porque el diseño se hacen alguna forma u otra forma, así que hay falta de transparencia acerca de la rendición de cuentas no las vemos esto. En principio, como no solo indicamos en el marco de este principio, sino tampoco en este principio, hasta cuándo se aplica de manera concreta y efectiva otro problema muy relevante. Es el problema de la ética como manipulación de la Ley de la política fiscal que existe, porque, claro, se dice hacer un marco ético para la inteligencia artificial y ponemos algunos principio. Pero esto, en principio, casualmente son un mismo o parecido al principio que ya tenemos de la ley. Cuando digo quiero transparencia, la inteligencia artificial, ni va a juzgar, que es la transparencia de la inteligencia artificial, cuando ya tenemos normas sobre la transparencia del derecho administrativo, hay mucho otro contexto en la misma transparencia, o es la transparencia diferentes. Ese es un problema, o cuando hablo de faenas de nuevo como cosas correcto no hicieron nada. El fairness es si usted justicia también ser correcto y digamos no actuar de manera correcta. Esto permite cuál es la ser correcto del contacto, es el correcto del marco ético, es el correcto, como así que el problema, que si yo voy a definir con naciones, que ya existen, que tienen su interpretación con la ley, su interpretación con los tribunales aceptados y lo dado, poner como sea un días éticas a través, desde aquí hay ética, se puedan cambiar lo que ya está definido, el marco de carga, o te dice eso, y esto migrando al principio ético, que me dice de ser correcto, de ser transparente, lo interpretan esta mañana. Me salto lo que usted sabe perfectamente. Está claramente no se puede ser claramente la mani prevalece sobre esta interpretación que no vamos a crear un entorno conflictivo, donde ponemos algunos principios que chocan con otro principio práctico e hicieron no es una manera de plantear a la tripulación otro problema claramente es la ética. Nuevamente una manipulación, entender elevado lavado de. Ustedes saben que cuando se empezó a desarrollar toda esa nueva herramienta de las que la nueva como Elche o similares que hacer o las grandes y se declara laica del sector, limitaron o cerraron los comités éticos que justamente estaban poniendo dudas sobre esta herramienta, niegan ahora negarla que ustedes nos entregan, y alguien alguna carga la avalada cerrarán de todos o tracas lo hicieron esta parte no algunos y clara después que para 5 o 6 años hablando todas esta técnica fábrica de la importante, de la ética, del marco ética, del compromiso que tengan con la ética, cuando, pero salvo la nueva herramienta que puede poner muchos dinero, puede aclarar mucho ese diseño, pero en este caso habría que cambiar una excepción. Ejemplo. El cine es más importante básicamente eso, que realmente significa que la ética al final no es tan efectiva de gas Esto es que a lo concreto, así que por eso hablo de manipulación como ha sido posible. Por qué no? Si hay mandatos de éticos y habrá un debate ético, porque al final hay todo están debilitadas, hay la debilita desde el primer lugar, porque este de la ética de delitos digital, de la sonda ética que no tiene muchas veces digamos un drama no tiene una referencia es una ética; se crea de manera práctica caso a caso o por un entorno específico, sin mirar a la referencia ética, a negarlas, cuando hablaba del derecho ni éramos al miedo, miramos al principio ético que están consolidados en la EPA aquí no, aquí son principio que son cartas éticas, también por parte de la Unión Europea; el grupo artificial intangibles, que fueron un listado de principios porque expertos dicen Estos son los mismos; así que hay se llaman normas ética; pero no obstante el contexto de tipo formal un no hay referencia en todos estos documentos, a ninguno de los barcos ético baja. No se dice que ética se aplica, se aplicaban Ética kantianas. Ya, aplicaban ética de otra naturaleza. Varias escuelas de ética digamos, no haré referencia al marco y claramente eso es un problema porque es un ética de contextualizar, data, es más difícil aplicarla y más controvertidos de resultados y además muchas veces autorreferenciales también. Ayer lo he comentado con usted, por estudiantes. La lupa europeo dice. La madre de estos principio ético son los derechos fundamentales, pero los derechos fundamentales tienen que basarse sobre la ética, es que la ética se pasa solo por los derechos fundamentales así lo he entendido yo, y es largo, pero te muestra de incendio como falta un una baja, así que tenemos los derechos fundamentales, sí otro aspecto que ha ayudado. Ha hecho posible esta esto, marco ético, también, definitivo, un poco es que en parte gusta a los informáticos, digamos que sí es verdad, porque esto debe traer carnés de otro principio de informática, o desbordara ellos sobre los congresos de Trípoli, otros compromisos que son muy activo en definir principios y, digamos es importante, porque si me indica que hay una concienciación por parte de prensa informático, que se ponga en duda su, como es su trabajo en pactar con las, necesita. Eso está muy bien, pero, por otro lado, algunos desde este principio, como se han formulado por el sector informático, son simplificaciones y como se vio que no has comentado con la informática voy a hablar de evidencias dirigidas de manera informática, donde claramente hablo de política de aguas. Aquí pasa lo mismo, se tumban principios éticos, se crean buenas personas que nos da expertos de ética, claramente tienen capacidad de coer, solo algunos aspectos no enteramente toda la problemática de esta de atrás. Así que este principio no está mal, pero solo una simplificación por algunas cosas. Otro problema último porque ha sido posible, ha sido posible porque claramente el el tipo gusta mucho a lo que tiene que ser datos, porque si yo soy presa en el sector de la interactividad, el marco ético me proporciona mucho más margen Por qué la ética puede ser más interpretada Pues varias cartas éticas o principio que son muy generar, y así que la actuación típicamente transparencia, que es un principio que está siempre en este cartas, en transparencia, que significa transparencia de datos, que ha utilizado para implantar la transparencia, que puede acceder a la armonización, transparencia que puede utilizar, haciendo preguntas repetitiva, dar bonito para entender un poco cómo funciona la transparencia se puede hacer de muchas diferentes maneras, así que claramente hay un aprecio muy fuerte por algunas empresas y también por algunos países. Antes hablaba del Consejo de Europa, por ejemplo, en el Consejo de Europa, o cualquier estrella poco novedosa de crear un marco global, la inteligencia artificial con un convenio que sea un convenio desde el principio como convenio global, y un poco discrepo, que porque es diferente entre el convenio sencillo, 8 que empieza como un convenio europeo y después tiene la capacidad legal atractiva y en otro país no son de Europa, que defienden de adoptar un marco que es una diferencia de modelo, y todo es diferente de esta situación, que es una historia de éxito, digamos, a la idea de. No somos el de Europa, de lo que queremos hacer una convención global, Comisión Global, típicamente del derecho internacional, lo hace un alto organismo de las Naciones Unidas, así que eso no es solo opinión personal; ha sido muy indicativa también el Consejo de Europa, también entre los países europeos. Otro país no sea una relación y parte porque no se ha aprobado de momento este convenio pero claro de este pacto global por ejemplo hay países que por tradición y por relación con la idea de ética, quieran hacer normas o de eso lo si tú hablas con Japón, por ejemplo, te dice que no. Quiero una norma vinculante en inteligencia artificial porque principio ético son suficientes porque sea el principio. He tenido ellos, siguen principio hay en Italia, se pone un principio ético. No pasa nada, tendría sequía invitados a la escala para ver si no ponemos vuelta. Tampoco sirven al principio legales evitar las sanciones, ese separar ese importante, no cuando vamos a hacer normas sanitarias global como es el de actividad. El contexto cultural es muy importante, no, no funciona en todos los países de la misma manera hay países donde el compromiso con la ética se siente como una cosa muy importante y a otro país tuvo la ética. No tiene un papel relevante y se nos llene organismos que actúan en sanciones e controles y toda la ética al final nadie la considera. En este contexto, claramente a las que quieran hacer una regulación más tranquila, más optar puede ser más pavorosa la verdad de una ética? No, no Cuál es el espacio de la de la ética? En el contexto de la ley? Sobra la inteligencia artificial? Creo que les parece a la señora plantea? No hicimos la relación de arte? Es así? . 264 00:16:07,525 --> 00:16:12,500 No sé si aquí tenemos una estructura un poco complicada, pero no demasiada, digamos, empezado desde el principio. La ley de inteligencia artificial es una ley que se ha propuesto por parte de la Comisión, se ha propuesto ya con un papel importante de la tramo, digamos, de Marrakech de mercado. Para hacer una comparación, iniciar su papel más importante del sector de derechos fundamentales, la idea de atrás a la inteligencia artificial de la Ley de utilizar ese atípicamente de seguridad de productos. Después va a cerrar la Comisión se 50 que claramente no existen problemas de seguridad de productos, sino también un problema del pacto sobre la societa y, en definitiva, de incorporar también referencia explícita a los derechos fundamentales, pero la propuesta de la Comisión, así como de la propuesta del Consejo, había esta referencia a la protección de los derechos fundamentales, digamos, de la macro caja, de la evaluación de impacto que se llama la evaluación de conformidad. La evaluación de conformidad es la evaluación que compraron mitad, que ya conocemos, de la seguridad de datos, no de la cuenta del producto. Traen a lo que sea, sí sí digamos, no que no. Habla de años a la personas o a las cosas. Esta marco de evaluación de conformista en esta propuesta se añadiría algunas líneas, diciendo y también protegiendo los derechos fundamentales. Eso es que esta evaluación debería instalar otro. El de conformidad así pedía solamente a lo que eran los proveedores, los creadores, digamos, de inteligencia artificial. Sí los que daban, no solo lo que la, por ejemplo, Google, más los afectados, pero y un hospital utiliza la herramienta del nuevo programa, no estaba bajo esta norma, porque la norma dice que la evaluación conjunta es solo para los proveedores Qué hicimos a nivel de Parlamento Europeo y coincidimos que asesora ver con otros compañeros de Bélgica la Benifallet que fuera puerta? Para mí? Se introduce, se decidió de poner una norma, es decir, diga que de momento se llamaba 21. Verá oigamos, porque el texto definitivo con un nuevo finales, el 21, vea e introduce una evaluación específica sobre el impacto sobre los derechos fundamentales, que tiene que ser hecha por parte, no de los proveedores, sino de la ha utilizado horas si no nos juzga, sino por el ayuntamiento o al hospital. Porque cuál es la banca? Que los proveedores de la evaluación de conformidad pueden hasta no acepta la segunda medida. Entender cuáles son la consecuencia. Eso a usted le vienen bien en el caso de Chipre y si vamos a ver el recorte que hizo Xarxa su propia herramienta dice que puede afectar a una, tener unos problemas que se equivoca, que pueden pactar sobre una categoría que explica cómo se enfrenta el problema, pero después cuando el ministerio de Portugal dice de utilizar mitin para proporcionar información, es de sobra la prostitución, ilícito administrativo, a los ciudadanos de Puerto Real claramente la situación es diferente. No podemos pedir a UPN a que se va a arruinar. Cómo va a utilizar el Portugal Chipre y aquí está la lógica del 21 verá claro. Ahí ya tenemos un conocida entre responsabilidad y que la responsabilidad y se reparte en base a la capacidad del desoye acto de controlar el riesgo básicamente era una teoría clásica, digamos de responsabilidad, y así que el proveedor puede controlar hasta a un cierto nivel del que pueden imaginar unos escenarios del pacto. Todo tiene que la bolsa de conformidad enfrentarse a ese escenario y limitarlos, pero claramente hay un papel delimitador concreto de esta herramienta, que tiene que mirar a qué pasa cuando va a ubicar en el hospital al ayuntamiento para una finalidad, y aquí tiene que hacer una evaluación de impacto sobre los derechos fundamentales como en la manera que ha utilizado. Esta herramienta va a impactar sobre los derechos fundamentales. Y cuál es el problema? El problema, que la norma propuesta para el Parlamento Europeo de manera menor y que ahora está en el texto final y por problema político se decidió poner como norma autónoma la referencia a la impacto sobre los derechos fundamentales. En términos de ingeniería, digamos legislativa, no es esta la manera de enfrentarse al tema y nosotros habrían bien, pero políticamente no se pudiera hacer diferente al ayuntamiento. Entiendo decir que ahora tenemos una evaluación que técnicamente sería una evaluación de impacto tecnológico, que está en el artículo 7 del Reglamento, que dice que cuando hay una nueva tecnología que puede ser de alto riesgo el legislador puede decidir de cambiar el listado que hay en el anexo, traes que es la anexión, sobra la terminología de que introducir nuevos casos para saber esto se hace claramente una evaluación. En esa evaluación se tiene en cuenta del impacto también sobre los derechos fundamentales, después de la otra evaluación, si atacantes de conformidad por parte de proveedores que llegue también a su parte de evaluación del derecho fundamental, pero en este caso Comisión y ahora de todo la parte digamos de comisión, utilice esta parte tiene que se ha desarrollado por tantas estas. Así que la técnica de la acreditación es muy común. El sector de la Guardia Civil conforme ETA tiene que aplicarse también a esta valoración de conformidad, incluyendo la parte de derechos fundamentales, sí y después de desmontar la unidad, que estaba valoración hecha por parte de lo que utilizan, digamos, la inteligencia artificial, y es una valoración solo sobre los derechos fundamentales, 6 estándares de referencia, porque la norma no hace referencia a esta Cámara, así que claramente si yo lo voy a ver desde la perspectiva de la claridad del diseño normativo. Insisto, es tan, tan buena solución, pero yo lo comenté con los parlamentarios ya, pero esto del 29 tenido que ocultarlo más arriba y que está todo conjunto, diga o no se modifique la parte general hasta la parte final, pero claramente no era posible porque sí hubo un artículo nuevo, hablarse de cuotas. Al artículo nuevo. Se va a modificar todo voto a los artículos. Ya habrá un debate, vamos a derogar, hubo una PAC, el 21 hasta el final del trílogo no estaba, seguro que se aprobaba al final sea aprobados con una decisión técnica, pero ha funcionado Qué dice el 21 que hace referencia a la evaluación de impacto? El 29 introduce una excepción para la investigación y ahora tenemos que reflexionar cómo funciona esta excepción, porque dice sistemas de inteligencia artificial en los modelos que estaban diseñados para desarrollar la crisis y cada mente se pone en servicio la sola finalidad y la de investigación científica y de desarrollo no han bajado nada, pero solo se está específicamente desarrollando puesto en marcha para esta finalidad. Esto significa que si una investigación identifica un clic, no una herramienta de entrevistas divisa, ya hecha o parte de otro, esto, tabaco entre el sello desarrollo, algo que a la sola obliga al final ETA, desean la investigación científica, no sea aplicable, actuar con la idea de vertebrar guardias en la investigación neto, otra cosa que dice pero no lo dice en la parte digamos normativa. Considerando se dice. Se decide el cumplimiento con estándares éticos, porque dice el sistema de inteligencia artificial que tiene el dato para con Google y actividad de investigación. El desarrollo de la tirita están bajo la ley de esta recuperación. En este siglo constancia, vamos a aprobarlo, tiene que cumplir con el principio. En ese sentido, una serie además hay ninguna. Así que esto hay una diferencia de estándares éticos Quién tiene que ser relevante también en Internet de cerca. Ahora el problema es que sí voy a mirar el artículo 29. Al final, la aplicación del pacto sobre los derechos fundamentales está bastante limitada en el marco de la investigación, así como en el marco, donde la investigación por otro lado, se aplica al sector público, se aplica al sector bancario; de los bancos se financia, pero aquí el problema es, pero el área no es una norma de derogar, es una norma que regula la expresión, es que va a regular específicamente el sector de la iniciativa privada, pero hasta cuándo no deroga principios generales o cuestiones básicas aplicando, así que no me puede decir que los derechos fundamentales, como el principio ético, que es algo reconocido en algunas electoral, no se ha aplicado por el hecho que no hay requerimientos precedido de la norma. La norma puede decidir que lea, no se aplique, pero eso no significa que los principios fundamentales del derecho fundamental no tiene que ser protegido. Tampoco se midió que en el sector, bajo un principio ético, la ética no siga aplicables. Otro aspecto es que esto del impacto sobre el derecho fundamental es un elemento del impacto social, digamos, de la inteligencia artificial, pero a la inteligencia civil ya no se limita al impacto sobre el derecho fundamental, sino sobre el pacto sobre la sociedad y sobre la societa, y pueden tener herramienta que no tienen ningún impacto sobre los derechos fundamentales, pero eso no significa que a las cuestiones ferroviarias yo pueda crear un sistema como el espacio del lado de salud, que puede gustar o no puede estar, pero hay que se iniciará cuando sea aprobada y se hará de la pega a nivel social. Podemos decidir si es aceptable o no. Así que el entorno legal, el marco de agenda ambiental, social y éticos son 2 cosas diferentes y sigue siendo un espacio para verbales, sean que sea ética de valores, a software, el impacto social digamos eso, porque la ley sobre dependencia actividad no es una ley ómnibus que va tono, proporciona alguna protección, pero no prohíbe extenderle por lo que se extiende también a sectores porque no hay la deroga. Claro de aeronave. Así se dice. Eso se puede ver si también se contra el principio ético. Tenemos que aguantar, pero de momento no hay, así que ahí hay margen para combinar la evaluación de los derechos fundamentales como está definida en la ley de mi intervención inicial o no, la evasión ética, que ya. Pero sé que la idea es de crear una evaluación ética con inteligencia artificial. Teniendo en cuenta las limitaciones que habíamos visto, el problema es cómo se hace, cuál es la referencia, por qué la diferencia. Primero no puede ser el trasplante, y el trasplante ético ya lo conocimos con el imperialismo ético, de un libro muy interesante sobre el periodismo ético, que todos los que un libro histórico sobre el debate, que surgió con la dotación del dron reporta y todo aplicamos como se ha revelado en el estatuto solito, el tema de la ética, de la investigación, y claramente con la ética médica ha ha impactado sobre todos los sectores que no son mediocres. Aquí hay riesgo o intereses artificial en lo mismo, claramente afecta menos a la precariedad de salud, porque el mismo sector, pero muchas cartas de ética se ve claramente como el principio típico de ley. médica se extender a ser principio ético por toda la inteligencia artificial para un sector como el financiero o la guerra, como otro que no tienen ni nunca, nada que ver con los principios típico de la ética; falta en la relación entre paciente y médico. En beneficio de todo, o que existieran a criterios diferentes. Así que el imperialismo ético, que realmente es muy bien, yo diría que podemos un de identificar 3 niveles diferentes, el primer nivel es la evaluación sobre el impacto en derechos fundamentales, como lo definición, y reclame la ley, y que está limitada en unos casos, y todos, y eso claramente el marco normativo, con la aplicación del reglamento todo el sector público y parte del sector privado tendrán que hacer esta evaluación de impacto. Eso no es poca cosa, no hay por qué no hay experiencia, no hay detrás decisión en este sector de agresión, de impactos de ya, pero solo típicamente es un poco diferente. La evolución de impacto sobre los derechos humanos ya ex costa, cuando hay un impacto muy fuerte, vaya a estar rondando típicamente. Se hace en un contexto muy específico contextual típicamente grandes empresas que van a construir en países del sur del modelo del mundo, grandes planes industriales con impacto social relevante, todo así en la cuota muy diferente de esa es la evaluación ex ante, una evaluación más limitada porque el impacto es diferente o más amplio, porque la empresa les llegue a esta solemne y seria AENA se puede adoptar con todo el mundo, así que sea un punto con diferente después el segundo nivel más amplio impacto sobre los derechos fundamentales, sin la limitación estándar de la ley de inteligencia activista, el tercer nivel. Pero cuál es la relación, entre otras, de otras líneas? Si vale. Si miramos a la experiencia de Estados Unidos donde empezaron a desagregarles el criterio de evaluación, la ética la cosa que me parece interesante es que en Estados Unidos se desarrollaron los principios de ética de la investigación, pero en un contexto donde hay falta de un enfoque sobre los derechos humanos están resolviendo. La parte de derechos humanos está muy desarrollada, es muy limitada o se transforme en derechos de los consumidores, pero no permanente o limitadamente en derechos y mi error cuarta, y al Estado algunas campo de públicos y todo es así que en Estados Unidos todo este marco se no en un contexto donde hay falta de derechos fundamentales y de enfoque todos los derechos, y se dice miramos al entorno. Así que puede ser que hay una relación entre el ahorro ético y la falta de protección de derechos aceptadas. Otro aspecto es que la ética en Europa también se ha utilizado mucho y muchos sectores, y mucho en el sector de. Se ha hablado mucho del sector de la inteligencia artificial, o metadatos ética tendrá datos? Porque porque hasta ahora que tiene cuál era el marco en este sector protección de datos cuasi cabe solo protección de datos en la LOE única que iba a arreglar dentro todo el sector y protección de datos, tendremos que ver con sacarles muy poco. También ha hecho muchas cosas, pero es muy poco. Hace referencia a temas de gerencia, a la protección de la cita, de la porosidad de la información personal, pero claramente ahora que en el área, y no es solo la idea de por qué llegamos a leer la directiva que se adopta se va a adoptar sobra una responsabilidad de las empresas, no solo cómo se transmite en Castilla la directiva, que por qué se tiene que cumplir con los derechos fundamentales, su papel, y si vamos a negar hay una también al diésel y a otros a otras normas que se han adoptado en el sector digital. Todo este enorme gasto que viene normas a ser diferente, más al marco de los derechos fundamentales, así que vamos a un contexto en el cual solo por deseándole datos a derechos fundamentales, pero, claro, se esconden 2 derechos fundamentales. La suplencia de la ética me parece que tiene un papel más limitada porque la ética ha hecho por mucho tiempo actividades suplentes no digo en todos los sectores, pero poniendo trabajar mucho con la Unión Europea en el sector de la investigación, en el comité de investigación y cuando vamos a examinar un proyecto Protección de Datos, tabaco, normas de uso dual al estar bajo la de protección de normas, de seguridad, tan vacua, de clara, aparte de participación del paciente que participa, la investigación o no paciente, cuartel investiga. Esto está bajo la idea de ética de investigación, método, pero eso significa que temer espacio claramente. El expansión de los derechos fundamentales va un poco antes del siguiente, yo creo en la función de suplencia que me parece que el marco de chico ha ejercitado por mucho tiempo, y por eso ahora los proyectos europeo sí van dirigidos y en todo el proyecto europeo también. Una valoración sobre el impacto, sobre los derechos fundamentales, y esa era la duda del proyecto horas no tendrá que también se están diciendo, pero solamente le han pedido hacer esta que ya sombra la ley, impacto de los derechos fundamentales como parte de la evaluación. La agencia que controla todo eso, quiero hacer una evaluación ética que incorpora también los derechos fundamentales. El espantoso para un derecho fundamental claramente esto va mucho más ser la evaluación y transforma lo que muchas veces está bajo la ética, un porque típicamente la clase de las patas de la suya entonces involucrado en la investigación -riesgo que haya bancas y todo eso se verá era un tema ético, y ahora sin más ni gramo el marco de los derechos fundamentales, el de Madrid de discriminación, con derecho a nada. Bueno, me parece más correcto como enfoque, pero claramente es un traidor entre las 2. Los sectores. Otro aspecto es que este marco ético, que se va a 2 o para principio típicamente de ética médica, por un lado no enjuiciada por todos los sectores, si no tienen los mismos principios y por otro dato tampoco es útil que se repite como principio ético de ahí el sector del día o derecho, porque ellas están como yo del derecho. Así que no nos sirve de nada que los principios del derecho no se va a reiterar diciendo. Cuando se utilizan intervenir ya en el sector médica tiene que ir a utilizar ese principio, que son lo mismo que tenéis. Ese es un poco. Los principios éticos muchas veces están definidos en un marco que deriva de este marco me indicó. El derecho así que yo derecho no necesita repitiendo y por otro dato no necesita extender los sectores que se pasan por el ministerio. Diferentes. Límites de la función tradicional del comité de ética. Los comités de ética funcionaban muy bien, pero la inteligencia artificial es una cosa un poco diferente de los casos típico que se tienen que enfrentar por varias aspectos. Primero, hay una rabieta del pacto, que es difícil detectar delito, ver a cuando yo como herramienta, como saben sí o a otras es difícil entender lo que se puede hacer con esta herramienta, exactamente como medicamento o tratamiento sanitario que por su naturaleza ya que describe de manera correcta cuál es la de de qué pasos se utilizaron una cosa o aquí la relación causal no está claro, no va en definitiva, al había manera de aplicar o variar diferentes reacciones también debido al contexto, a la interacción. Otros aspectos es importante, es que la inteligencia artificial puede ser diseñada en la manera que volumen de integración, que cambia y eso necesita un nuevo procedimiento de seguimiento y de seguimiento que no siempre se utiliza en la evaluación. Ha llevado a esa métrica que es algo van Souto hago una experta, está aprobado. Tener otro aspecto es que muchas veces la utilidad del comité de ética se diseñado de manera que todos, tan el comité no digo que siempre sea así, pero muchas veces veo, por ejemplo, la investigación al comité de ética, que se decide el valor de becas, pero esto con un cargo muy alto sobre los que deciden que tienen que imaginarse cuáles son los bares Oportunitat en consecuencia, y todos en un contexto tan complicado como lo de actividad. Es difícil entender. Por eso la parte de participación, por ejemplo, tenía que ser mal desarrollada, porque a través de la participación pues entender mucho más, cuáles son las, las, las personas potencialmente pactada y cuáles son algunas problemas que puede ser que yo no entiendo. Hay casos concretos de científicos de datos que no entendía, va a cobrar consecuencia y el caso más evidente. Paradigmático. El Elche, criterio que te dice. Sí pero no pensábamos que se pudiera utilizar. Por eso burguesa. Esta y por eso la participación puede ser. Tradicionalmente existe en el pacto por la defensa del medio ambiente, la parte, si me hace a base de utilidad exactamente para cortar una mirada evidente que puede complementar a la casilla. La evaluación de las expertas claramente no es una alternativa, es un complemento. Otro punto las yo creo que la ética es importantes, porque hay cuestiones básicas que a está relacionada con lo que societa que queremos desarrollar en relación a la utilización del interviniente artificial, porque estas decisiones no son decisiones puntuales que se hacen en relación a la específica aplicación si no son decisión de nivel más alto que toca una, una voluntad de Camus, colectiva, más amplia cuanto a la sociedad tiene que ser afectada, la guerra de intereses de apreciar el cual es sector y todos. Así que yo creo que aquí el nivel ético es más digámoslo a un nivel de comité nacional de definir de definir una estrategia general no necesariamente puntual al caso concreto. Es un tema que no está muy debatito ni se se hablase en vez de Comité Andaluz del análisis de casos puntuales específico, pero aquí el tema es la inteligencia artificial. En cuanto a la inteligencia artificial, tienen que ser útiles data, por ejemplo, medida tener lugar del médico de la relación con pacientes. Eso no es, es el problema de una visión general y también es un otro sector, un sector de la migración en sectores donde hay un aspecto muy sensibles. Esto es un caso concreto, las.

Intervienen

Alessandro Mantelero
Politecnico di Torino

Organizadores

Empoderdat - Idertec - CEBES - BESO - Fundación Séneca

Propietarios

Centro De Estudios En Bioderecho, Ética Y Salud

Elementos multimedia asociados al video

Archivos adjuntos

Comentarios

Nuevo comentario

Relaccionados