/ caja de ideas

IA y error en el trabajo:
¿tenemos permiso para equivocarnos?

Cuando la información parece infinita, el error se vuelve incómodo.
Una reflexión sobre IA, aprendizaje y seguridad psicológica en las organizaciones.

Sabemos —al menos en el plano discursivo— que el error es condición de aprendizaje.
Es difícil, por no decir imposible, comprender fenómenos complejos de manera lineal, sin desvíos, omisiones o impericias en el camino. Aprender implica tantear, equivocarse, corregir y volver a intentar.

Esta relación estrecha entre error y aprendizaje ha sido históricamente una vía regia al crecimiento, tanto individual como colectivo. Los equipos y las organizaciones que muestran resultados más sólidos y sostenibles suelen compartir una característica: habilitan la prueba, el intento y la experimentación.

Ahora bien, esto no siempre fue así.

Del castigo al permiso: ¿aprendizaje o necesidad?

No hace falta retroceder demasiado en el tiempo para recordar contextos donde el error era castigado.

En muchas organizaciones —algunas todavía vigentes— equivocarse implicaba sanción, estigmatización o pérdida de credibilidad.

La pregunta incómoda es esta:
¿el error empezó a tolerarse porque aprendimos a valorar su función…
o porque el entorno cambió y no quedó otra opción?

Si fuera esta segunda alternativa, habría que admitir algo más profundo: nuestra tendencia sigue siendo buscar soluciones rápidas antes que comprender causas, repetir lo ya probado antes que asumir riesgos, y priorizar la certeza por sobre el aprendizaje.

La inteligencia artificial amplifica esta tensión.

Con su promesa de respuestas inmediatas —en segundos— y su posicionamiento como apoyo clave para la toma de decisiones, la IA parece decirnos que ya no hay excusas para equivocarse.

Todo está disponible.

Todo puede consultarse.

Todo puede resolverse rápido.

En este contexto, se instala una suposición peligrosa:

si tenemos toda la información, entonces deberíamos hacerlo bien siempre.

Y si deberíamos hacerlo bien siempre, el error se vuelve inadmisible.

Y ahí ves que sacaste ticket a 2016 sin darte cuenta…

Sin darnos cuenta, sacamos pasaje directo a una lógica conocida: la etapa pre-agilidad, donde equivocarse no enseñaba nada y solo servía para señalar culpables.

Cuando la IA deja de ser palanca y se vuelve obstáculo

Para que la IA funcione como palanca de aprendizaje y no como obstáculo, no alcanza con incorporarla técnicamente. Hace falta algo más difícil de construir: un contexto cultural adecuado.

Eso implica no idealizar la tecnología, pero tampoco demonizarla.
Tratarla como se trata al mar: sin miedo, pero con respeto.

En paralelo, es clave fortalecer el pensamiento crítico. No para discutir por deporte, sino para evitar convertir a las personas en meros reproductores prolijos de contenidos generados por sistemas inteligentes.

Pensar sigue siendo una responsabilidad humana.

Seguridad psicológica: la condición silenciosa

  Y llegamos al punto central:

  Nada de esto es posible si las personas sienten que equivocarse, intentar algo nuevo o expresar un punto  de vista honesto puede tener consecuencias negativas.

 Hablar de aprendizaje, innovación o mejora continua sin seguridad psicológica es puro decorado.

Difundí esta info:

¿Listo para tu dosis
semanal de ideas?

Suscribite a mi Substack de psicologIA