El peligro de entregar tu mente a quien nunca ha vivido

El pensamiento crítico se ha vuelto un recurso escazo. Es un recurso que aparece cuando te despiertas, abres el ordenador y sientes ese peso en el pecho. La lista de tareas parece un monstruo que crece mientras duermes. Correos acumulados, informes por entregar, publicaciones por crear, decisiones que demandan una energía que simplemente ya no tienes. Es el agotamiento moderno llamando a la puerta. En este escenario de fatiga extrema, la inteligencia artificial surgió como un canto de sirena. La promesa era tentadora: “entrega tus tareas a la máquina y recupera tu vida”. Pero, en medio de ese camino, algo muy valioso comenzó a ser robado de nosotros, y casi nadie se dio cuenta.

Brené Brown, en reflexiones que hacen eco de su trabajo sobre la vulnerabilidad y el coraje, aportó una perspectiva que corta como un cuchillo en su libro Strong Ground. Ella mencionó que, si alguien le hubiera preguntado qué esperaba de la IA a la hora de resolver alguna necesidad humana, la respuesta sería simple: la IA debería liberar espacio para que ella pudiera pensar, solo eso. Es decir, imaginemos que las innovaciones que hoy se desarrollan con IA lavaran los platos o hicieran las tareas domésticas aburridas y repetitivas. Sin embargo, lo que estamos viendo es lo opuesto. La IA se está utilizando para sustituir el acto de pensar, arrebatando al ser humano su derecho más básico y su mayor ventaja competitiva: el proceso cognitivo de crear, razonar e incluso interferir en el sentir.

Estamos viviendo un momento en el que profesionales de diversas áreas están delegando el “alma” de su trabajo a los algoritmos, creyendo que han encontrado la salvación. Pero existe un riesgo silencioso aquí. Imagina a una persona que pasó toda su vida encerrada en una biblioteca. Ha leído todos los libros del mundo, desde tratados médicos hasta manuales de ingeniería, pasando por toda la literatura clásica. Esa persona sabe describir el sabor de una naranja y el dolor de un duelo con perfección técnica. Pero nunca ha probado una fruta y nunca ha perdido a nadie. Tiene toda la información, pero cero experiencia, cero emoción y absolutamente ninguna intuición. Esa es la IA. Y confiar al 100% en ella es como pedirle a ese bibliotecario aislado que te guíe por un bosque peligroso en la vida real.

La ilusión de la competencia absoluta

l gran problema actual no es la tecnología en sí, sino nuestra dependencia ciega. Diarios como The New York Times y The Guardian han reportado casos que deberían servir de alerta roja para todos nosotros. El fenómeno de la “alucinación” de las IA no es un error de recorrido que se corregirá pronto; es una característica intrínseca de cómo funcionan estos modelos. Son predictores probabilísticos de palabras, no buscadores de la verdad.

Uno de los casos más emblemáticos ocurrió en el campo jurídico de los Estados Unidos. El abogado Steven Schwartz utilizó ChatGPT para fundamentar un proceso contra la aerolínea Avianca. La IA, con su característica autoridad sintética, inventó precedentes judiciales enteros. Citó casos que nunca existieron, con nombres de jueces y números de expedientes ficticios. Schwartz, confiando en la “salvación” tecnológica para agilizar su trabajo, no verificó las fuentes. ¿El resultado? Una multa pesada, humillación pública y una mancha indeleble en su carrera profesional. Entregó su razonamiento jurídico a una herramienta que no tiene noción de ética o consecuencia.

En la medicina, el riesgo es aún más visceral. Investigadores del área de la salud han alertado sobre el uso de LLMs (Grandes Modelos de Lenguaje) para diagnósticos sin una supervisión rigurosa. Un estudio publicado por la revista Nature destacó que, aunque la IA puede auxiliar en el triaje, falla estrepitosamente al interpretar matices que solo el ojo clínico y la experiencia humana captan. Hubo informes de IA sugiriendo tratamientos basados en correlaciones estadísticas absurdas encontradas en datos de entrenamiento contaminados. Cuando un médico deja de razonar porque confía en la máquina, deja de ser un sanador y pasa a ser un mero operador de sistema, poniendo vidas en riesgo.

Esta erosión de la capacidad crítica es lo que algunos especialistas llaman “atrofia cognitiva”. Si no usas tus músculos, se debilitan. Si no usas tu capacidad de estructurar un argumento, de dudar de una premisa o de conectar ideas complejas, tu mente comienza a volverse dependiente. Estamos creando una generación de profesionales que saben crear prompts, pero que no saben explicar el porqué de las elecciones que la IA tomó.

La IA es un asistente, no un maestro

Para entender cómo debemos mirar esta tecnología sin caer en el abismo de la mediocridad, necesitamos cambiar el enfoque. La inteligencia artificial no es un sustituto del talento humano; es, como mucho, un pasante brillante, pero extremadamente mentiroso y sin noción del contexto real —como mencionó un gran amigo, Ricardo Ost, fundador de Neurix.

Artículos recientes de la Harvard Business Review y expertos en tecnología como Ethan Mollick defienden la idea del “humano al mando” (human-in-the-loop). La idea es que la IA solo genera resultados válidos y verídicos cuando es guiada por un orquestador. ¿Quién es ese orquestador? Es el especialista que posee lo que la máquina jamás tendrá: repertorio vivido.

Un buen especialista sabe exactamente qué pedir, pero, sobre todo, sabe identificar cuándo la respuesta es errónea o cuándo le falta “sazón”. Si le pides a una IA que escriba un texto sobre liderazgo, te entregará clichés sobre empatía y resiliencia. Si un líder real escribe sobre liderazgo, hablará de sus experiencias, dolores y alegrías del día a día. Podríamos decir, de alguna forma, que: la IA tiene la cáscara, el humano tiene la pulpa.

La verdadera ventaja competitiva en el mercado actual no será saber usar la IA, sino saber dónde termina ella y dónde comienzas tú. El valor está en la curaduría. En un mundo con abundancia de contenido generado por máquinas, la escasez de pensamiento crítico y de verdad humana se convertirá en el activo más caro del planeta. Aquellos que usen la herramienta para acelerar procesos, pero mantengan un control firme sobre la estrategia y la validación, son los que liderarán. Los demás serán solo ecos de un algoritmo que se repite exhaustivamente.

El papel del nuevo profesional

Necesitamos dejar de buscar la “salvación” en las herramientas. La tecnología es solo un amplificador. Si eres un profesional mediocre y usas IA, solo te volverás un profesional mediocre más rápido y a mayor escala. Si eres un profesional excelente, la IA puede eliminar el trabajo mecánico para que tu excelencia brille en áreas que la máquina no alcanza.

El error de muchos es creer que la IA tiene una comprensión profunda del mundo. No la tiene. No entiende qué es el miedo a perder un cliente, la presión de una junta directiva o la alegría de cerrar un negocio transformador. Solo sabe qué palabras suelen venir después de otras palabras cuando se discuten esos temas. Confiar ciegamente en esa probabilidad es abdicar de la propia inteligencia.

El camino al éxito en la era de la inteligencia artificial involucra tres pilares que ninguna actualización de software proporcionará:

  1. Escepticismo saludable. Nunca aceptes una respuesta de la IA como una verdad absoluta. Trata cada interacción como una hipótesis que necesita ser probada.
  2. Dominio técnico profundo. Solo puedes orquestar una IA si sabes más que ella sobre el tema en cuestión. Si no conoces las reglas del juego, no sabrás cuándo la máquina está haciendo trampa o equivocándose.
  3. Intuición basada en la experiencia. La intuición no es magia; es tu cerebro procesando miles de experiencias pasadas en milisegundos. La IA no tiene pasado, solo tiene datos de entrenamiento. Tu intuición es tu escudo contra la lógica fría y, a menudo, fallida de la máquina.

La voz de la experiencia frente al sustituto sintético

No faltan voces de autoridad alertando sobre este equilibrio necesario. Sam Altman, CEO de OpenAI, ya ha afirmado en diversas entrevistas que la IA debe ser vista como una herramienta de aumento de productividad, y no como una entidad autónoma de toma de decisiones. Él mismo reconoce las limitaciones de razonamiento lógico profundo que los modelos actuales todavía poseen.

Investigadores como la Dra. Joy Buolamwini, del MIT, han centrado su trabajo en mostrar cómo los sesgos y las limitaciones de las IA pueden ser perjudiciales si no hay una supervisión humana constante y crítica. La conclusión de casi todos los estudios serios sobre el tema converge en el mismo punto: la IA es un excelente asistente de investigación, un gran organizador de borradores y un acelerador de tareas repetitivas. Pero es un pésimo tomador de decisiones finales.

El futuro pertenece a los orquestadores. A aquellas personas que, como sugirió Brené Brown, dejan que la IA se encargue de lo mecánico para que el cerebro humano pueda volver a hacer lo que mejor sabe hacer: sentir, conectar y crear lo que aún no existe. El riesgo no está en que la máquina piense como un humano, sino en que el humano comience a pensar como una máquina —de forma previsible, sin alma y totalmente dependiente de un comando externo.

No dejes que la facilidad aparente mate tu capacidad de razonar. Usa la tecnología para limpiar el camino, pero asegúrate de que seas tú quien está caminando. Al final, la IA puede haber leído todos los libros sobre cómo vivir, pero nunca tendrá el coraje de dar el primer paso. Eso es exclusividad tuya.

Al final del día, la pregunta que queda para cada uno de nosotros no es cuántas tareas completó la IA por ti, sino cuánto de tu pensamiento original se preservó en el proceso. Si la respuesta es “casi nada”, tal vez sea hora de retomar las riendas. La salvación no está en el código, está en la conciencia de quien lo utiliza.

Entradas relacionadas

Deja el primer comentario