Inteligencia artificial explicable (AIX) y prevención de daños
El concepto de bienes digitales comprende aquellos objetos virtuales que se pueden comprar, vender o coleccionar en línea. Se representan, por lo general, en tokens no fungibles (NFT) y en criptoactivos. Entre los más conocidos, las criptomonedas, activos digitales, arte digital o el mundo del metav...
Guardado en:
| Autor principal: | |
|---|---|
| Formato: | Artículo |
| Lenguaje: | Español |
| Publicado: |
El Derecho
2025
|
| Materias: | |
| Acceso en línea: | https://repositorio.uca.edu.ar/handle/123456789/20475 |
| Aporte de: |
| Sumario: | El concepto de bienes digitales comprende aquellos objetos virtuales que se pueden comprar, vender o coleccionar en línea. Se representan, por lo general, en tokens no fungibles (NFT) y en criptoactivos. Entre los más conocidos, las criptomonedas, activos digitales, arte digital o el mundo del metaverso. Se percibe de manera más o menos consciente la existencia de estas realidades, así como la presencia de la inteligencia artificial en los distintos sistemas que se valen de ella o servicios y productos que se desarrollan o utilizan la IA, que transforman la sociedad, las formas de pensar, de relacionarse o cómo realizar las tareas más simples o complejas. Si esa percepción se transforma en pregunta acerca de cómo la IA funciona, cómo se crea, cómo se aplica, quiénes están detrás o qué pasa si la IA se equivoca o no sabe, la mayoría ignora o tiene un conocimiento somero o superficial al respecto. Quizás, en muchos casos, la persona se queda con la cara amable en el ahorro de tiempo, la disponibilidad de información o el acceso a bienes y servicios. Sin embargo, hay situaciones en áreas como la sanidad o el uso de datos en que parecen mostrar lo contrario, pues se presentan situaciones como discriminación, sesgos negativos o tomas de decisiones por estos sistemas difíciles de explicar o comprender. Y es que estos modelos de IA impactan en un amplio abanico de cuestiones tan dispares como la solicitud de un préstamo, el dictado de un acto administrativo, una praxis médica o el ingreso universitario. La propuesta de este trabajo es analizar posibles soluciones a los problemas conocidos como de cajas negras o black box en los que hay una dificultad de interpretar y comprender cómo un modelo de IA llega a una determinada conclusión que se verá reflejada en el espectro de los productos, servicios o bienes digitales, con la posibilidad de generar daños de entidad y extensión diversas. Esa búsqueda se enmarca en la función preventiva del daño a través de sus principios integradores, a los que se agrega la posibilidad de pensar en una IA explicable (IAE o AIX) o cómo desde el diseño del producto se puede anticipar la existencia de dañadores tecnológicos y así contribuir a la seguridad jurídica, la protección de los usuarios, los consumidores y los proveedores, así como ser parte de la gobernanza de los Estados. |
|---|