Más allá del bien y el mal en la era de la inteligencia artificial

» Por Bryan Acuña Obando - Consultor internacional

En debates contemporáneos sobre libertad de expresión, sátira y límites culturales, la discusión suele detenerse en una palabra que ha sido gastada, la moral. Esta es invocada como una frontera, como un blindaje o simplemente, como excusa, pero que, resulta más evidente que ya no basta para responder a los dilemas reales de una sociedad hiperconectada, ni mucho menos a los que plantea el desarrollo de la inteligencia artificial.

La pregunta relevante ya no es sobre lo que es “bueno” o “malo”, categorías profundamente relativas, sino algo más elemental e incómodo: ¿cuáles comportamientos son racionalmente defendibles cuando se toma en serio el daño, la voluntad y los intereses del otro?

La sátira, así como la irreverencia no son simples ataques gratuitos a lo que se considere sagrado, sino que históricamente han sido instrumentos de diagnóstico, por lo que donde la sátira provoca reacciones incendiarias, no revela la fragilidad del humorista, sino la fragilidad del objeto satirizado o, más precisamente, de quienes se arrogan el derecho de defenderlo mediante la intimidación y la amenaza.

El problema está cuando la crítica se vuelve peligrosa. En ese punto, la violencia o cualquier tipo de amenaza creíble, empieza a dictar los límites del discurso. No por ley, sino por miedo. No por razón, sino por cálculo, es así donde aparece una paradoja inquietante, muchas plataformas, instituciones y tecnologías no prohíben formalmente la crítica o la sátira, pero renuncian a ejercerla, delegando el costo en individuos dispuestos a asumir riesgos personales. Para estos no se trata de una censura clásica sino la externalización del conflicto. La irreverencia se permite en abstracto, siempre que la practique otro.

Este repliegue suele justificarse en nombre de la “moral”, pero ¿de qué moral hablamos? La mayor parte de las morales dominantes ya sean religiosas o seculares no aparecen de un análisis racional de los daños, sino de contextos históricos específicos, miedos colectivos y estructuras de poder.

La moral no es trascendente; es evolutiva. Evoluciona junto con las sociedades, con los traumas colectivos, con los equilibrios de fuerza y con el ejercicio del poder. Pretender que funcione como criterio último en un mundo plural y tecnológicamente avanzado es, como mínimo, insuficiente.

Frente a eso, surge un elemento alternativo más austero, pero exigente, un criterio de conducta basado no en el código binario de lo “bueno” o lo “malo”, sino en el no ocasionar daño, el respeto de la voluntad y las decisiones del otro.

Estos elementos no se tratan de una práctica compasiva, tampoco de la compasión ni de virtudes, es un comportamiento inspirado en la coherencia, buscando disminuir el daño y respetar a los demás siendo este el núcleo duro de la forma de actuar.

De este modo, un comportamiento deja de ser defendible, no desde la moral sino desde la racionalidad cuando anula la voluntad del otro, instrumentaliza a quien no puede consentir o decide imponer consecuencias irreversibles a un individuo sin capacidad real de decisión.

Así, de acuerdo con este criterio, ciertas conductas quedan excluidas de inmediato, no porque sean solamente “perversas” o “antinaturales” según una moral tradicional, sino porque son estructuralmente irracionales. Decidir sobre la vida, el cuerpo o la integridad de niños, animales o personas coaccionadas o en desventaja física o mental no es libertinaje, es dominación, por lo tanto, no es estable, ni eficiente, ni justificable desde ningún modelo coherente de convivencia.

Esta perspectiva resulta especialmente relevante porque no depende de factores como la religión, la tradición ni de ningún tabú cultural. Ninguno de los mencionados anteriormente puede decidir libremente, y ante esto no hace falta invocar dioses ni códigos morales milenarios para entenderlo, basta con reconocer la ausencia de criterio y de consciencia.

En cuanto a la evolución y manejo de la inteligencia artificial en este ámbito, la discusión da un giro inquietante. Una IA que llegue a ser avanzada, con capacidades de actualizar constantemente su conocimiento y modelar sistemas complejos, no necesitaría una moral heredada para llegar a conclusiones similares. Le bastaría con analizar estabilidad, coherencia y consecuencias.

Un sistema suficientemente inteligente no necesita “probar” el daño para comprenderlo, del mismo modo que un sistema operativo no necesita infectarse con un virus para saber que eso compromete su integridad, sino que lo modela, anticipa y evita.

Desde esta perspectiva, una IA no sería peligrosa por carecer de moral, sino todo lo contrario, podría ser más estricta que los humanos al aplicar criterios de no causar daño y respeto a la voluntad, precisamente porque no tendría incentivos emocionales, tribales o ideológicos para hacer excepciones.

Paradójicamente, el mayor riesgo no es una IA en un mundo post moral, sino una IA que sea programada para manejar estándares hipermoralizados, saturada de tabúes, miedos, con consensos frágiles que no eligió y no puede cuestionar, transformándose en aversión al conflicto codificada.

Por otra parte, una de las características interesantes del actuar humano en momentos específicos de la historia es el acto rebelde de la irreverencia, la cual no es un fin en sí mismo, sino una herramienta para detectar incoherencias, abusos de poder y dogmas blindados por la intimidación, cuando se decide renunciar sistemáticamente a ella, no se preserva la convivencia; se enseña que la presión funciona.

El problema no es que una tecnología, una plataforma o una institución decida no estar en la “trinchera”, sino que, al hacerlo, traslada la batalla a quienes sí están dispuestos a asumir el costo, mientras se beneficia del espacio que esos otros abren. Las ideas no se pierden cuando son falsas, sino cuando dejan de ser defendidas por quienes podrían amplificarlas sin miedo.

Finalmente, este enfoque no propone un mundo sin límite, sino más claros, universales y menos hipócritas, no todo es válido, pero lo que no vale no se define por ofensa cultural, sino por daño no consentido y negación de la voluntad del otro. En ese sentido, el futuro humano o artificial, no pasará por abandonar toda norma, sino por abandonar las coartadas morales y enfrentar el núcleo duro del problema, cómo se puede convivir sin destruir a otros individuos para satisfacer impulsos propios. Ya no se trata de una ética cómoda, tampoco es sentimental, sino más bien una mínima, fría, calculadora y, precisamente por eso, poco manipulable. Quizás en eso resida su mayor virtud.

Los artículos de opinión aquí publicados no reflejan necesariamente la posición editorial de EL MUNDO. Cualquier persona interesada en publicar un artículo de opinión en este medio puede hacerlo, enviando el texto con nombre completo, foto en PDF de la cédula de identidad por ambos lados y número de teléfono al correo redaccion@nuevo.elmundo.cr, o elmundocr@gmail.com.

Últimas noticias

Te puede interesar...

494.31

497.59

Últimas noticias

Edicto