La inteligencia artificial (IA) está transformando todos los aspectos de la sociedad, pero también plantea desafíos éticos y riesgos significativos. Amanda Askell, filósofa y experta en alineación de modelos de IA en Anthropic, destacó estos puntos durante una entrevista con Lex Fridman, investigador y divulgador tecnológico.
Desde los riesgos de la autonomía descontrolada hasta la concentración de poder, Askell subrayó que el futuro de la IA dependerá tanto de su capacidad técnica como de las decisiones éticas y políticas que se tomen hoy.
El riesgo de la autonomía sin control
Para Askell, la autonomía de la IA no es intrínsecamente peligrosa, pero los sistemas que actúan de manera imprevista pueden causar daños significativos. Un ejemplo hipotético sería un modelo diseñado para optimizar el tráfico que cierre rutas importantes sin considerar el impacto en las comunidades locales. “Incluso pequeñas desviaciones en los objetivos pueden generar consecuencias enormes”, afirmó.
La solución, según la experta, radica en diseñar sistemas que operen dentro de marcos éticos claros y valores alineados con las necesidades humanas.
Estrategias para mitigar los riesgos
Desde su trabajo en Anthropic, Askell promueve herramientas como la IA constitucional, un enfoque que incorpora principios éticos explícitos en los modelos. También destacó la importancia de la supervisión activa y el aprendizaje dinámico para mantener a los sistemas alineados con valores humanos.
“La supervisión constante permite corregir desviaciones antes de que se conviertan en problemas mayores”, explicó.
La concentración de poder: un desafío ético
La IA, según Askell, está transformando las estructuras económicas y sociales, pero su desarrollo está concentrado en pocas organizaciones. Esto podría perpetuar desigualdades y sesgos culturales en áreas sensibles como educación y justicia.
“La inteligencia artificial es inmensamente poderosa. Si su desarrollo se centraliza, corremos el riesgo de ignorar las necesidades de gran parte de la humanidad”, advirtió.
Askell abogó por la democratización del acceso a estas herramientas y la colaboración entre empresas, gobiernos y organizaciones independientes para garantizar un desarrollo más equitativo.
El futuro de la interacción humano-máquina
La experta señaló que estamos apenas al inicio de una relación mucho más profunda entre humanos y máquinas. Los sistemas de IA avanzados podrían evolucionar de asistentes virtuales a colaboradores en tareas complejas, siempre y cuando se diseñen para complementar habilidades humanas, no para sustituirlas.
“El diseño de estas interacciones tendrá un impacto profundo en las próximas décadas”, comentó, añadiendo que las decisiones que se tomen hoy definirán cómo las sociedades se relacionarán con la tecnología en el futuro.
Una llamada a la responsabilidad
La conversación destacó que la inteligencia artificial no es solo una herramienta, sino una fuerza transformadora con un inmenso potencial para beneficiar o perjudicar a la humanidad. “El verdadero desafío está en construir sistemas que sirvan al bienestar colectivo, evitando la concentración de poder y reduciendo desigualdades”, concluyó Askell.
El futuro de la IA dependerá de cómo se equilibren su capacidad técnica con principios éticos y decisiones políticas responsables. Ante esta realidad, la pregunta es: ¿estamos preparados para guiar esta tecnología hacia el beneficio de toda la humanidad?