¿Se Puede Regular la Inteligencia Artificial? Análisis, Legislaciones y Retos Éticos
- George Márquez
- 14 may
- 11 Min. de lectura
Actualizado: hace 6 días
En 2024 y 2025, los empresarios, los académicos y los legisladores consideran que la IA es uno de los temas más populares. La IA ha generado mucho revuelo debido a su potencial para afectar una variedad de problemas importantes (detección de enfermedades, agricultura, derecho, etc.). Los gobiernos quieren asegurarse de que la sociedad pueda beneficiarse de la tecnología y al mismo tiempo limitar sus desventajas, por lo que el foco de atención ha despertado su interés. Pero realmente se puede regular la inteligencia artificial. ¿Es posible regular la IA? Conoce las leyes actuales, retos éticos y los marcos globales que buscan controlar su impacto.

En 2025, la Inteligencia Artificial no solo genera innovaciones tecnológicas, sino también profundos dilemas legales, éticos y sociales. ¿Podemos regular sistemas que se autoaprenden y evolucionan más rápido que las leyes? Este artículo profundiza en la regulación real de la IA a nivel global, con ejemplos, leyes vigentes, retos futuros y análisis ético.
La regulación de la inteligencia artificial ha sido especialmente difícil. Muchas regulaciones propuestas para la IA no funcionan, no funcionan o son equivocadas. En este artículo de realmente ¿Se puede regular la Inteligencia Artificial? repasaré las siguientes ideas:
Por qué una fuerte presencia gubernamental es imprescindible en la IA.
Los desafíos actuales en torno a la regulación de la IA.
Cómo los gobiernos pueden mejorar la seguridad y el cumplimiento de la IA.
Un análisis del Índice de IA de los registros legislativos de 127 países muestra que el número de proyectos de ley que contienen “inteligencia artificial” que se aprobaron como ley aumentó de solo 1 en 2016 a 37 en 2024. Del mismo modo, un análisis de los registros parlamentarios sobre IA en 81 países muestra que las menciones de la IA en los procedimientos legislativos globales han aumentado casi 6,5 veces desde 2016.
La regulación de la inteligencia artificial es uno de los temas más candentes del siglo XXI. Con avances como GPT-4, asistentes autónomos, vehículos sin conductor y decisiones algorítmicas en salud, banca y justicia, los gobiernos buscan frenar abusos sin limitar la innovación. En este artículo exploramos las leyes actuales sobre IA, sus vacíos, los riesgos legales emergentes y cómo el mundo enfrenta el desafío de controlar una tecnología que ya piensa por sí misma.
¿Es imprescindible una fuerte presencia gubernamental?
Un mito muy común en la sociedad es que el gobierno impide la innovación y la eficiencia. Cuando miramos una historia, descubrimos otra. La corrupción y la burocracia son importantes obstáculos para el progreso, sin embargo, cuando se gestionan adecuadamente, los gobiernos cuentan con:
Una mayor capacidad de asumir el riesgo, lo que les permite invertir en proyectos en los que las empresas privadas no estarían dispuestas a involucrarse. Además, tienen la capacidad de invertir dinero en proyectos de obras públicas que no son rentables para beneficiar a las sociedades, lo que las empresas privadas no pueden hacer debido a la necesidad de ser rentables.
Un ámbito temporal más extenso. Las revisiones trimestrales de los accionistas pueden obstaculizar los proyectos a más largo plazo.
Financiamiento: los gobiernos tienen la capacidad de financiar constantemente proyectos innovadores sin importar las tendencias del mercado. Esta es una ventaja significativa, ya que les permite terminar los proyectos.
Considere la industria de la tecnología. Las computadoras, Internet y muchos otros avances solo son posibles porque los gobiernos tomaron el riesgo de invertir en las primeras versiones de estos proyectos sin quebrar. Estos proyectos fueron financiados por el gobierno, lo que permitió la creación de conceptos fundamentales que posteriormente se utilizaron en el sector privado. Incluso hoy, esto sigue siendo cierto. No se deben menospreciar las contribuciones significativas de empresas como Google, Meta y OpenAI a la IA y la tecnología. Sin embargo, hemos elogiado a estas empresas mientras ignoramos las investigaciones previas realizadas por millones de doctores e investigadores financiados con fondos públicos que permiten estas innovaciones.
Una consideración adicional: el hecho de que las publicaciones científicas requieran costos elevados para supervisar la investigación financiada por el Estado es considerado un acto de robo.
Además, es necesario que los gobiernos mantengan un control sobre el poder de las empresas. Las empresas, debido a su mala fortuna, tienden a buscar el monopolio, la manipulación de precios y la explotación, lo cual es un resultado desafortunado de un sistema económico que requiere un aumento cada trimestre financiero. Es esencial contar con una presencia gubernamental sólida para salvaguardar los intereses del público y combatir la disparidad de información que se presenta en los mercados.
Las estafas de criptomonedas son un claro ejemplo de lo que sucede cuando los mercados no regulados se vuelven comunes: los inversionistas institucionales ganan dinero exagerando, los estafadores se involucran en tirones y la gente común sale jodida. Si quieres criticar la burocracia y los procedimientos burocráticos, las regulaciones gubernamentales estrictas nos brindan seguridad y estabilidad a todos.
Esto se aplica tanto a la IA como a cualquier otro campo. La IA podría ser utilizada de manera inadecuada en una variedad de situaciones, como la penalización injusta de las personas con discapacidades por parte de los sistemas de evaluación de empleados, la reducción de puntuaciones de las personas por parte de los evaluadores de crédito debido a que pertenecen a grupos históricamente más débiles o la IA médica perjudicando desproporcionadamente a los negros.
En 2019, un estudio explosivo encontró que un algoritmo clínico que muchos hospitales estaban usando para decidir qué pacientes necesitaban atención mostraba un sesgo racial: los pacientes negros debían ser considerados mucho más enfermos que los pacientes blancos para ser recomendados para la misma atención . Esto sucedió porque el algoritmo se había entrenado con datos anteriores sobre el gasto en atención médica, lo que refleja una historia en la que los pacientes negros tenían menos para gastar en atención médica en comparación con los pacientes blancos, debido a disparidades de riqueza e ingresos de larga data.
Dado que la IA es fundamental para la vida de las personas, se requerirán políticas más sólidas en este ámbito, ya que proporcionarán otra capa de protección contra los grupos que implementan soluciones imprudentes sin considerar los efectos posteriores. Lamentablemente, una gran cantidad de discusiones sobre la regulación de la IA son incorrectas, en su mayoría inútiles e incluso potencialmente perjudiciales. Discutamos por qué tantas regulaciones de IA, incluidas Barcelona 2021 y su última eliminación, están en el Salón de la Fama de los Desastres.

Por qué la regulación de la IA es tan difícil
Hay algunos obstáculos que dificultan una regulación efectiva de la IA. En primer lugar, existe una gran cantidad de información errónea sobre la IA. Sensacionalizar la IA puede generar un gran beneficio al resucitar un caballo que hemos sacrificado en nuestro culto. El miedo es una herramienta de marketing eficaz, y muchas de las personas que defienden los riesgos existenciales son personas con un interés financiero en hacerlo.
Elon Musk, uno de los alarmistas de la IA más destacados, pidió una pausa en la formación de los LLM, solo para liberar a Grok unos meses después.
Como he discutido estas ideas en muchas ocasiones, no tengo nada más que añadir aquí. Para concluir, una de las respuestas más repetidas que recibo de mis lectores es que valoran mis escritos porque "contradicen las exageraciones". Esto debería mostrar claramente cuán ruidoso es el debate sobre la IA.
Parece que hay muchas más instrucciones y sugerencias de los humanos de las que se detallan en la tarjeta del sistema original o en informes de medios posteriores. También hay una decidida falta de detalles (no sabemos cuáles fueron las indicaciones humanas), por lo que es difícil evaluar incluso si GPT-4 "decidió" por sí solo "mentir" al trabajador de Task Rabbit.
Otro problema importante, el cabildeo por parte de corporaciones poderosas, aumenta el sensacionalismo. Al año, compañías como Meta, Amazon, Microsoft y Google invierten 113 millones de euros en actividades de lobby en Bruselas. La IA ha tomado el relevo recientemente. Google, Microsoft y Amazon han invertido grandes cantidades de dinero en empresas de inteligencia artificial con la única intención de que el código abierto se convierta en su comida. Estas empresas están muy interesadas en utilizar la regulación del gobierno para detener la expansión de los competidores de código abierto.

Al limitar el acceso a los modelos y concentrar la IA segura en unas pocas organizaciones, estas empresas se concentran en la captura regulatoria para frenar el desarrollo de competidores de código abierto. Esperan convertirse en árbitros de la seguridad al cantar epopeyas homéricas sobre el potencial destructivo de los modelos poderosos. El control centralizado eliminaría las principales ventajas del código abierto, como su agilidad, diversidad y apertura, al proporcionarle una estructura similar a la de los grandes gigantes tecnológicos (sin financiación).
La desinformación y el lobby, desafortunadamente, funcionan muy bien porque son simples y atractivos. Al señalar con el dedo modelos omnipotentes que despertarán para destruir la sociedad, pueden hacer que uno se olvide de los verdaderos desafíos de la IA, como los sistemas defectuosos que distorsionan la IA, nuestra falta de comprensión de la toma de decisiones de los modelos y la vulnerabilidad de los sistemas. Creemos que son Nadie debe preocuparse por los desafíos más difíciles (pero banales) al luchar Quijotcally contra los fantasmas de la IA superinteligente: garantizar que usemos la IA solo cuando sea apropiado, crear herramientas útiles y garantizar que la IA que construimos no tenga código muerto que nos cuesta 450 millones de dólares en 45 minutos.
Cuando la Bolsa de Valores de Nueva York abrió sus puertas en la mañana del 1 de agosto de 2012, el enrutador algorítmico de alta velocidad recientemente actualizado de Knight Capital Group generó incorrectamente órdenes que inundaron el mercado con operaciones. Aproximadamente 45 minutos y 400 millones de acciones después, lograron desconectar el sistema. Cuando todo se calmó, efectivamente habían perdido más de 10 millones de dólares por minuto.
Debido a que es más atractivo ocuparnos de proteger a la sociedad del ascenso de Terminator que solucionar los problemas creados por nuestras limitaciones, la regulación de la IA es un desastre. Y permite a las empresas continuar operando de la misma manera que antes.
Consultando los dos pasajes que se publicaron en el notable boletín Polymathic Being. Se explica cómo los criterios de evaluación sesgados de Amazon explican por qué la IA de la empresa es sesgada hacia las mujeres.
Este es el problema de la falta de cumplimiento del reglamento. La IA que creamos refleja nuestra sociedad y nuestros procedimientos. Una excelente oportunidad para comprender las presiones y sesgos de nuestro sistema es investigar sus defectos. Si dejamos que los campeones de la seguridad más santos que tú nos digan qué es y qué no es "seguro" o "apropiado" para investigar o desarrollar, no podemos hacerlo. Debemos dejar de mirar hacia abajo desde nuestras torres de marfil y mirar hacia la sangre y las entrañas de nuestros sistemas para garantizar realmente que la IA sea segura.

Por qué necesitamos auditorías de IA
Para mí, regular la tecnología es una tontería porque es contextual, está en constante cambio y con frecuencia no es el problema. Por el contrario, es más rentable controlar la industria y sus procedimientos.
A la hora de evaluar los sistemas de inteligencia artificial, creo que las auditorías de terceros serán una gran ventaja, al igual que el espacio financiero. Esto requeriría:
Una lista bien definida de criterios de evaluación que se utilizarán para evaluar un sistema de IA. A lo largo de todo el proceso, la lista de verificación tendría que definir varias dimensiones de la seguridad de la IA.
Expertos para evaluar los oleoductos.
LLM y otras herramientas de datos para evaluar grandes conjuntos de datos en busca de problemas potenciales.
Los expertos externos aseguran que no tengan prejuicios sobre el diseño del sistema. Una vez, Fidel Rodríguez, líder de datos senior de LinkedIn, me habló sobre Gemba Walks y lo importantes que eran para su equipo.
Imagine que su equipo ha creado una función. Antes de enviarlo, pídale a un completo extraño que le haga preguntas al respecto. Pueden preguntarte lo que quieran. Esto le ayudará a ver la función como lo haría un extraño, lo que puede ser crucial para identificar mejoras/defectos ocultos.
Una ventaja adicional de estas auditorías sería su singularidad. Las auditorías estudiarían productos reales con resultados reales en lugar de construir castillos en el cielo sobre hipótesis abstractas. Esto conduce a ciclos de retroalimentación más efectivos, lo que nos permite repetir la tarea para mejorar los detalles. Estos controles también obligarían a las organizaciones a tomar medidas particulares y garantizarían que las personas al menos piensen antes de implementar sistemas de IA.
Diferentes enfoques, distintos intereses...
¿Por Qué es Necesaria una Regulación para la Inteligencia Artificial?
La IA afecta derechos fundamentales como la privacidad, la no discriminación y el acceso a la información. Casos de sesgo algorítmico en sistemas de justicia penal en EE.UU. y algoritmos discriminatorios en procesos de contratación demuestran que la IA mal regulada puede ser peligrosa.
Europa Toma la Delantera: El Reglamento de IA de la Unión Europea (AI Act)
La UE aprobó en 2024 el primer reglamento integral sobre Inteligencia Artificial (AI Act), categorizando los sistemas según su riesgo (bajo, medio, alto, inaceptable). Prohíbe sistemas de vigilancia biométrica masiva, exige evaluaciones de impacto y registros transparentes.
Estados Unidos y su Enfoque Basado en la Responsabilidad Empresarial
EE.UU. aún no cuenta con una ley federal exclusiva para IA. Sin embargo, agencias como la FTC, FDA y NIST están estableciendo guías sectoriales. Biden firmó en 2023 una orden ejecutiva que exige a las Big Tech garantizar transparencia, seguridad nacional y derechos civiles.
F: Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence (White House, 2023)
Asia: Corea del Sur, Japón y China Optan por el Control Tecnológico
China regula la IA con un enfoque de seguridad estatal y censura algorítmica, ya implementado en 2023 para modelos generativos.
Japón y Corea priorizan la innovación con ética, usando marcos flexibles y éticos más que restrictivos.
País/Región | Ley Principal | Enfoque | Nivel de Madurez | Observaciones |
Unión Europea | AI Act (2024/0101) | Riesgo y Derechos Humanos | Alto | Regulación pionera global |
EE.UU. | Orden Ejecutiva + FTC Guidelines | Sectorial y empresarial | Medio | Sin ley federal unificada |
China | Ley de IA Generativa (2023) | Control estatal y censura | Alto | Rígida, vigilancia activa |
Japón | Código Ético de IA | Ética y libertad empresarial | Medio | Voluntaria, basada en principios |
Corea del Sur | Plan Nacional IA Responsable (2024) | Innovación con supervisión | Medio-alto | Supervisión técnica + ética |
Emiratos Árabes | Carta Ética de IA (2023) | Transparencia y reputación | Medio | Atracción de inversiones tecnológicas |
¿Qué Riesgos Legales y Éticos Existen Actualmente?
Discriminación algorítmica (edad, género, raza)
Privacidad y recolección masiva de datos
IA autónoma sin responsables legales
Desinformación y manipulación automatizada
¿Quién Debe Ser el Responsable Legal de una IA?
Este es el mayor vacío legal. ¿El programador? ¿La empresa? ¿El usuario? ¿El propio modelo? Se discute la posibilidad de crear "Personalidad Jurídica Algorítmica", pero aún no hay consenso. El AI Act establece que la empresa desarrolladora es responsable.
¿Cómo Equilibrar Innovación y Control?
La clave está en establecer marcos adaptativos que permitan pruebas, errores y mejoras sin bloquear el desarrollo. Las sandbox regulatorias, como las que aplica el Reino Unido, permiten experimentar IA con supervisión legal.
¿Y América Latina?
Brasil discute su Marco Legal de IA desde 2021, con participación del Senado y académicos. México, Colombia y Argentina tienen guías éticas, pero no leyes. La región aún está rezagada pero en debate activo.
La regulación de la inteligencia artificial ya no es una posibilidad futura. Los gobiernos deben actuar con rapidez, visión ética y coordinación internacional. Aunque no es fácil controlar sistemas complejos y autónomos, sí se puede establecer un marco que promueva la transparencia, prevenga abusos y proteja los derechos humanos. El verdadero desafío no es solo regular la IA, sino hacerlo antes de que ella nos regule a nosotros.
Entonces, se puede regular la inteligencia artificial
En un principio, regular la Inteligencia Artificial con estos controles se aplicarían a sistemas de IA sensibles que tienen un impacto significativo en la vida cotidiana de las personas, como la IA médica, las finanzas, las evaluaciones de empleados, la IA utilizada en la creación de políticas públicas, etc. Podemos extender el proceso si es necesario.
Incluso yo he sido contratado para evaluar la seguridad de los sistemas. Estas auditorías simplemente llevarían esto un paso más allá, organizando el proceso para comenzar a mejorarlo intencionalmente. He comenzado a trabajar sobre ello. Si alguno de ustedes desea más información o colaborar conmigo, comuníquese con nosotros.
Servicios Profesionales
En JMC Studio somos una Agencia multidisciplinaria con gran talento creativo, desarrollamos todo tipo de proyectos puede revisar todos nuestros servicios de consultoría aquí.
Fuentes: IA Simplificada News, Artículos Stock.
Comentarios