top of page
Buscar

De la Ficción a la Realidad: La IA 'Peligrosa' según la Legislación de la UE.

Actualizado: 15 abr

De la Ficción a la Realidad: La IA 'Peligrosa' según la Legislación de la UE.


El miércoles 13 de marzo, el Parlamento Europeo votó a favor de la histórica Ley de Inteligencia Artificial (IA), marcando un hito en la regulación de esta tecnología en la Unión Europea (UE). Con 523 votos a favor, 46 en contra y 49 abstenciones, la aprobación de esta legislación refleja un claro respaldo a un enfoque seguro y centrado en el ser humano para el desarrollo de la IA.


Con la aprobación de esta ley, la UE se posiciona a la vanguardia en la regulación de la IA, estableciendo un precedente para otros países y regiones en todo el mundo. Además, busca colaborar con países socios para garantizar un impacto global de estas normas. Se espera que esta legislación siente las bases para futuras regulaciones.



En el marco de la revolución tecnológica actual, donde la inteligencia artificial se erige como una fuerza transformadora en diversos ámbitos de la sociedad, la necesidad de regulación se hace cada vez más evidente. Esta normativa establece un sistema de clasificación que distingue entre diferentes niveles de riesgo asociados con los sistemas de aprendizaje automático.


Dentro de este contexto, surge una preocupación fundamental: la identificación de los sistemas de IA catalogados como de "riesgo inadmisible", que representan una amenaza significativa para la sociedad. ¿Qué sucede con aquellos sistemas de IA considerados de "riesgo inadmisible"? ¿Cuáles son las implicaciones de su existencia en nuestra sociedad cada vez más digitalizada? Vamos a explorar algunos usos y sistemas de IA categorizados según la Ley de IA de la Unión peligrosos según la Ley de IA.


Aprovechamiento de los puntos vulnerables de las personas, uso de técnicas subliminales”


Imagina un escenario donde la IA analiza minuciosamente los perfiles y comportamientos en línea de las personas para identificar aquellas que son más susceptibles a ciertos tipos de mensajes persuasivos. Esta IA podría dirigirse específicamente a estas personas, explotando sus debilidades y deseos para persuadirlos a participar en actividades fraudulentas, como esquemas piramidales.


Utilizando técnicas de ingeniería social, un chatbot podría incluso simular empatía y comprensión, creando una ilusión de conexión personal para manipular las emociones del usuario. Esta habilidad para imitar la interacción humana conlleva riesgos adicionales, ya que puede hacer que los usuarios bajen la guardia y sean más susceptibles a las artimañas de la IA.




Puntuación social con fines públicos y privados


Los sistemas de puntuación social plantean dilemas éticos y morales de gran envergadura en nuestra sociedad moderna. Estos sistemas, que clasifican a las personas según su comportamiento social, su estatus socioeconómico o sus características personales, representan una forma de control social que socava los principios fundamentales de la igualdad y la justicia. Al asignar valores numéricos a la valía de los individuos, estos sistemas pueden generar discriminación y marginación, restringiendo la libertad individual y perpetuando desigualdades ya existentes.


La existencia de sistemas de puntuación social plantea una cuestión fundamental sobre el tipo de sociedad que queremos construir. ¿Deseamos una sociedad donde el valor de una persona se reduzca a un número, determinado por algoritmos opacos y sesgados? O, por el contrario, ¿buscamos promover una cultura de inclusión, igualdad y respeto por la diversidad?



Categorización biométrica de las personas físicas basada en datos biométricos para deducir o inferir su raza, opiniones políticas, afiliación sindical, etc


Imagina un sistema de inteligencia artificial que analiza los datos biométricos de las personas para categorizarlas en función de características como la raza, las opiniones políticas o la afiliación sindical. Este tipo de tecnología podría ser utilizado para clasificar a las personas en grupos estereotipados y prejuiciosos.


Un ejemplo de esta problemática podría ser el uso de la categorización biométrica en el ámbito laboral o educativo. Si los empleadores o las instituciones educativas utilizan esta tecnología para tomar decisiones sobre contratación, promoción o admisión, podrían estar perpetuando injusticias y desigualdades sistémicas.



Reconocimiento de emociones en el lugar de trabajo y en las instituciones educativas


Imagina un sistema de inteligencia artificial que monitorea constantemente las expresiones faciales y el tono de voz de los empleados o estudiantes para detectar y clasificar sus emociones. Este tipo de tecnología podría ser utilizado por empleadores o educadores para evaluar el estado emocional de las personas y tomar decisiones basadas en esta información, como la asignación de tareas, la evaluación del rendimiento o la intervención en el comportamiento.


Este escenario plantea interrogantes sobre la responsabilidad moral de los empleadores en el uso de tecnologías de reconocimiento emocional. ¿Es ético utilizar algoritmos para evaluar la productividad de los empleados sin tener en cuenta el contexto personal y situacional de cada individuo? ¿Se están respetando los derechos y la dignidad de los empleados al basar decisiones importantes, como la asignación de tareas o las oportunidades de promoción, en la interpretación automatizada de sus expresiones emocionales?



En MundoMÓVIL, creemos que la innovación tecnológica debe estar guiada por consideraciones éticas y humanitarias. Es crucial que las políticas y regulaciones en torno a la inteligencia artificial se centren en proteger los derechos y la dignidad de las personas, incluso si eso significa limitar ciertos aspectos del desarrollo tecnológico. Solo así podemos garantizar que la IA se utilice de manera responsable y beneficie a la sociedad en su conjunto.


Blog realizado por José María Cortijo

27 visualizaciones0 comentarios

Comments


bottom of page