Formador, consultor, sociólogo y humanista digital, Rodrigo del Olmo defiende una transformación tecnológica basada en el pensamiento crítico, la ética y la comprensión de lo humano. En esta entrevista, explora el papel de la sociología en la IA, el marketing digital y la cultura organizacional.
Palma. 2 de mayo de 2025. Rodrigo del Olmo Fernández no es un tecnólogo al uso. A su dilatada carrera como consultor y formador en marketing digital, transformación digital e inteligencia artificial, suma un enfoque profundamente humanista. Licenciado en Sociología y Ciencias Políticas, con másteres y especializaciones en ventas, redes sociales y dirección comercial, ha hecho de la formación in company y la docencia universitaria un terreno fértil para sembrar pensamiento crítico. Sus sesiones formativas —en las que aplica el método socrático, la resolución de casos reales y la co-creación del conocimiento— no sólo explican herramientas, sino que problematizan su uso.
Del Olmo habla con precisión quirúrgica sobre las relaciones entre tecnología, poder, ética y ciudadanía. Para él, los algoritmos no son neutrales, las marcas deben tener valores y la transformación digital requiere, más que cambios técnicos, una mutación cultural. Su visión de la inteligencia artificial no es distópica, pero sí exigente: “Hay que domesticarla con inteligencia social”, afirma. A continuación, compartimos la entrevista íntegra.
Rodrigo, te defines como un sociólogo en social media con mirada humanista. ¿Cómo conviven en tu día a día la tecnología y las ciencias sociales?
En mi día a día la convivencia entre tecnología y Ciencia Social es constante y simbiótica, podría describirla como un diálogo activo donde la tecnología se convierte en herramienta al mismo tiempo que en objeto de análisis crítico. Me esfuerzo por leer la tecnología, las herramientas y plataformas digitales y las redes sociales de forma crítica, intentando eliminar al máximo los diversos sesgos y las interpreto, cuando así procede, como sistemas de significación social, estructuras de poder y escenarios emocionales donde se configuran identidades, se polarizan comunidades, se negocian sentidos colectivos y, por supuesto, donde se promocionan y venden, indirecta y directamente, productos y servicios de todo tipo. Por su lado, las redes sociales, como artefactos tecnológicos, funcionan en parte como espejos y en parte como motores de la vida social contemporánea. Desde una mirada humanista y científica, hay que describir los comportamientos de los usuarios con la mayor exactitud posible, sí. Pero es aún más importante interpretar las motivaciones, los valores, las emociones y los vínculos sociales que se expresan y transforman en estos espacios digitales.
Trabajo así con una doble conciencia: por un lado, la comprensión de los condicionamientos estructurales, lo que me permite, hasta cierto punto, intentar anticipar dinámicas sociales, segmentar audiencias desde una perspectiva crítica y evitar caer en reduccionismos conductistas y culturales que atraviesan nuestras prácticas comunicativas; por otro, la responsabilidad ética de intervenir con una mirada que privilegie la dignidad, la justicia, la empatía y la autonomía de las personas. En mi praxis cotidiana suelo integrar diversas herramientas digitales, entre otras cosas, para analizar datos y confrontarlos interpretativamente, cuando resulta posible, con los marcos teóricos apropiados. Convivir con la tecnología desde una perspectiva humanista es elegir una forma de estar en el mundo digital que no se limita a medir, sino que aspira a comprender sentidos, humanizar métricas y generar transformaciones. Se trata de domesticar la tecnología, la inteligencia artificial, con inteligencia social, es decir, apropiarse de sus usos para generar interacción relevante y útil, desarrollar narrativas inclusivas y aplicar estrategias que promuevan el bienestar colectivo por encima del rendimiento algorítmico, con ciencia y con conciencia. Porque en última instancia, lo que está en juego a medio y largo plazo es la calidad ética y relacional de nuestras formas de vida compartida.
Llevas años dedicado a la formación in company y a la docencia universitaria. ¿Qué crees que aporta tu perfil sociológico a campos como el marketing digital, las ventas o la inteligencia artificial?
Pienso que la formación en ciencias sociales puede aportar valor operativo y estratégico en áreas como el marketing digital, la comunicación, las ventas y el uso de herramientas de inteligencia artificial aplicada en diversos ámbitos y procesos en las organizaciones, al proporcionar conocimientos y herramientas para analizar de manera crítica los comportamientos colectivos, las dinámicas de poder y los procesos simbólicos que influyen en las decisiones de consumo, interacción y adopción tecnológica. La sociología brinda una lente analítica para entender patrones de comportamiento, estructuras sociales y organizacionales y los sistemas de significado que dan forma a las decisiones de consumidores, empresas y organizaciones. En el entorno digital actual, donde las tecnologías disruptivas modifican constantemente la forma en que interactuamos y consumimos, esta perspectiva se vuelve, a mi entender, indispensable.
En áreas relacionadas con el marketing digital, un enfoque sociológico permite identificar preferencias de consumo, sesgos cognitivos, contextos y discursos culturales e, incluso, dinámicas de poder que influyen en la aceptación o el rechazo de productos y marcas. Comprender cómo se construyen las identidades en determinados espacios digitales es fundamental. Se trata de constructos que influyen directamente en las decisiones de compra y que, adecuadamente interpretados, resultan muy útiles a la hora de diseñar estrategias de comunicación auténticas, inclusivas y personalizadas. En un contexto dominado por la hipersegmentación y la personalización algorítmica, la capacidad de interpretar comportamientos colectivos desde una perspectiva cualitativa se convierte en una ventaja competitiva clave.
En ventas, la sociología aporta herramientas para analizar las relaciones interpersonales y las estructuras de confianza que sustentan las decisiones de compra y/o el establecimiento de relaciones comerciales en el ámbito B2C o B2B. En mercados que se comportan como sistemas dinámicos complejos y altamente tecnologizados, el éxito no depende solo de la calidad del producto o servicio, como demuestra el caso de empresas tecnológicas como Cisco o BASF que, al aplicar análisis sociológicos, lograron entender mejor las redes informales de influencia entre clientes B2B, ajustando sus propuestas de valor para generar mayor lealtad y compromiso comercial, sino de la capacidad de generar vínculos de confianza, legitimidad y valor compartido. Aquí, los conocimientos sociológicos permiten construir narrativas de valor sólidas, enfocadas al público objetivo y comprender los procesos y mecanismos simbólicos que movilizan la acción colectiva, también en procesos de venta consultiva y B2B.
En el campo de la inteligencia artificial, aplicada a empresas y organizaciones, una mirada sociológica resulta útil, entre otras, porque nos facilita la comprensión del contexto social de adopción tecnológica, la identificación de sesgos en los datos y algoritmos y el diseño de interacciones más humanas y relevantes al contexto, lo que permite que las soluciones basadas en IA sean técnicamente eficaces, éticamente responsables y socialmente aceptables.
A la hora de abordar la contextualización social de la adopción tecnológica, La sociología proporciona marcos analíticos para entender cómo las tecnologías se insertan en estructuras organizacionales existentes, cómo transforman las relaciones de poder, los roles laborales y las prácticas de comunicación. En el caso de la IA generativa, incluye desde su uso en procesos creativos hasta su rol en la automatización de tareas cognitivas. Comprender cómo las personas perciben estas herramientas, qué resistencias emergen y qué formas de legitimidad son necesarias para su adopción efectiva permite diseñar estrategias de implementación de la transformación digital más sostenibles y menos disruptivas. Perspectiva que resulta especialmente relevante en sectores donde el capital simbólico (creativo, jurídico, educativo…) condiciona la legitimidad de los resultados generados por máquinas. En el ámbito de la detección y mitigación de sesgos algorítmicos, uno de los riesgos más debatidos de la IA es su propensión a reproducir o amplificar sesgos existentes en los datos con los que ha sido entrenada. Una mirada sociológica, con su foco, por ejemplo, en las desigualdades estructurales, los sistemas de exclusión y las dinámicas de representación, permite identificar patrones sesgados que podrían pasar desapercibidos desde una perspectiva puramente técnica, lo que resulta crítico en ámbitos como la generación de contenido automatizado, donde estereotipos de género, raza o clase pueden filtrarse en textos, imágenes o decisiones automáticas, afectando la equidad y la reputación corporativa. Respecto a las mejoras del diseño de experiencias organizacionales mediadas por IA, la sociología de la interacción ofrece herramientas para repensar cómo se diseñan las interfaces de usuario, los flujos de trabajo y las experiencias colaborativas entre humanos y sistemas generativos. En el contexto empresarial, se traduce en agentes conversacionales más empáticos, asistentes virtuales que comprenden mejor los códigos comunicativos de diferentes culturas organizacionales y sistemas de soporte que se ajustan a los valores y normas del equipo de trabajo. Integrar una lógica sociológica en estos procesos mejora la usabilidad y la aceptación cultural de estas tecnologías dentro de la empresa.

En un mundo que gira cada vez más rápido, ¿cuál dirías que es el principal desafío que enfrentan hoy las organizaciones en sus procesos de transformación digital?
En la actualidad, probablemente y hablando en términos generales, el principal desafío que afrontan las organizaciones en sus procesos de transformación digital, más que de carácter tecnológico, es de tipo cultural y de enfoque estratégico. La literatura reciente y la evidencia empírica recopilada en experiencias de transformación en múltiples sectores coinciden en que el verdadero reto radica en la alineación entre estrategia de negocio y adopción tecnológica dentro de las coordenadas culturales de la organización y el área de aceptación de sus componentes. Es decir, no se trata solo de incorporar nuevas herramientas digitales, sino de hacerlo con una visión clara del propósito operativo y estratégico que guiará dicha implementación teniendo en cuenta la indispensable colaboración, desde el convencimiento, de toda la plantilla cuyo trabajo se va a ver afectado por estas transformaciones. Esta falta de alineación, cuando existe, conduce a inversiones costosas con retornos inciertos, al desánimo y, en casos extremos, al colapso de modelos operativos enteros. Otro desafío crítico es la resistencia al cambio dentro de las organizaciones. Resistencia que se manifiesta tanto a nivel estructural —por ejemplo, en la presencia de sistemas heredados difíciles de integrar— como a nivel humano, con equipos que no están preparados o motivados (o simplemente temen ser sustituidos por alguna herramienta digital) para adoptar nuevas formas de trabajo. La transformación digital exige una reformulación de las prácticas corporativas, del liderazgo y de la cultura organizacional. La falta de visión compartida entre los líderes tecnológicos y los de negocio, o la ausencia de una narrativa convincente sobre los beneficios del cambio, son factores que socavan la credibilidad y sostenibilidad de estos procesos. Por otra parte, la escasez de talento digital y de competencias especializadas constituye una limitación, especialmente para muchas pequeñas y medianas empresas. La rápida evolución de herramientas y plataformas digitales supera muchas veces la capacidad de las empresas para capacitar o reclutar perfiles adecuados, brecha de habilidades técnicas y de mentalidad digital que ralentiza el ritmo de implementación y aumenta la dependencia de consultores externos, elevando costes y reduciendo, en ocasiones, la autonomía de las organizaciones. Como lo demuestran muchas evidencias, el éxito no se mide por la adopción de tales o cuales tecnologías, herramientas o plataformas disruptivas, sino por la creación de valor sostenible que estas puedan habilitar cuando están correctamente integradas a la visión de negocio.
Hablas con admiración del modelo socrático y la formación presencial. En tiempos de educación online y algoritmos educativos, ¿qué papel debería seguir jugando la enseñanza cara a cara?
En estos tiempos de plataformas y herramientas digitales en vertiginosa evolución, es normal que haya personas que se pregunten si aún tiene sentido recurrir a la enseñanza presencial. Por mi parte, en sintonía con buena parte de la literatura académica y profesional al respecto, tengo la convicción racional de que en el diálogo directo con y entre las alumnas y alumnos, reside una capacidad formativa que difícilmente se puede replicar mediante procedimientos digitales.
La metodología socrática, aunque a menudo simplificada como simple intercambio de preguntas y respuestas más o menos guiadas sofísticamente en la dirección deseada por el formador, implica en realidad un compromiso interpersonal de mayor calado. El objetivo principal, más allá de la mera transmisión de contenidos, es la infusión y transformación de las habilidades y conocimientos de los participantes mediante la autoindagación y los cuestionamientos mutuos. Los intercambios dialógicos de esta clase presuponen la comunicación de ideas, conocimientos, habilidades y conexiones humanas en entornos grupales centrados en la temática abordada, con percepciones inmediatas (también en el sentido de no mediadas) de los contenidos tratados por el interlocutor, que resultan de gran valor a la hora de ajustar la intensidad, profundidad y ritmo de la conversación.
Por si fuera poco, la formación presencial permite la creación de un entorno de confianza en el que el estudiante puede exponerse al riesgo intelectual sin temor a los distintos costes derivados de los errores cometidos en la operativa organizativa, algúna clase o grado de humillación pública o a la condena inmediata. Tal como la experiencia socrática busca inducir una sana perplejidad y la conciencia del propio desconocimiento para estimular la búsqueda continua de la verdad, esta dinámica delicada requiere matices que difícilmente pueden ser capturados por un algoritmo que opera bajo parámetros estrictamente cuantitativos o estandarizado. Otra razón m es la función ética que subyace al encuentro socrático. Sócrates consideraba que el conocimiento moral y político no podía transmitirse adecuadamente a través de métodos impersonales o meramente informativos. El conocimiento verdadero implica una cierta transformación personal que ocurre cuando el maestro y el alumno se enfrentan directamente a dilemas éticos y existenciales, permitiendo al aprendiz observar y, de algún modo, interiorizar el modelo ético que el propio maestro encarna mediante sus acciones y actitudes cotidianas. Algo cada día más importante en el contexto de las transformaciones que están suponiendo en todos los ámbitos las herramientas y soluciones basadas en IA generativa.
Otra característica del diálogo socrático es la adaptación inmediata y continua a las reacciones del estudiante y la explicación a sus preguntas e inquietudes. Flexibilidad que permite corregir, matizar o profundizar instantáneamente en cualquier cuestión y que es difícilmente reproducible en un entorno digital estandarizado. El formador, en cierto modo, actúa como depositario de conocimientos, facilitador de habilidades y como modelo intelectual y ético que inspira al estudiante por su propia manera de vivir y cuestionarse. Esta dimensión vital del aprendizaje se pierde en buena medida cuando la interacción se filtra a través de pantallas y algoritmos.
No obstante, sería incorrecto sostener que la tecnología no pueda jugar ningún papel complementario al método de enseñanza inspirado en principios socráticos. Los recursos digitales contribuyen a democratizar el acceso al conocimiento y proporcionar herramientas útiles para la preparación de debates o para el aprendizaje autónomo. Pero tengo claro que estos recursos, por muy sofisticados que sean, no pueden sustituir plenamente la experiencia dialógica auténtica, aquella en la que lo que está en juego es el conocimiento y el desarrollo mismo del carácter del estudiante como profesional y persona.
Como formador, ¿qué herramientas o metodologías empleas para despertar el pensamiento crítico y el aprendizaje autónomo en tus alumnos y profesionales?
Cuando imparto formación, especialmente cuando está directa o indirectamente, relacionada con el uso de herramientas digitales, procuro adoptar enfoques eminentemente prácticos y adaptados a la realidad de las empresas, con especial hincapié en las necesidades y la realidad de las pymes en general y de la empresa en concreto, cuando se trata de programas “in company”, en la que desarrollo e imparto las acciones formativas.
Para despertar el pensamiento crítico y fomentar el aprendizaje autónomo empleo una técnica formativa que integra metodologías activas, las herramientas tecnológicas que vienen al caso y dinámicas psicopedagógicas orientadas al desarrollo competencial. En la medida de lo posible, concibo cada formación como un proceso de co-creación del conocimiento, donde los participantes no son receptores pasivos, sino protagonistas activos, diseñando escenarios de aprendizaje basados en la resolución de problemas reales o en el análisis y resolución de casos provenientes de sus propios contextos profesionales. Esta metodología, además de fomentar la transferencia de conocimiento, obliga al participante a cuestionar, analizar y reestructurar sus marcos mentales previos, al tiempo que activa los mecanismos de atención que ayudan a fijar y automatizar determinadas técnicas y procedimientos, estimulando, a su vez, la creatividad y el pensamiento “fuera de la caja” a la hora de encontrar soluciones a problemas reales.
Desde tu experiencia, ¿cómo crees que la inteligencia artificial está transformando nuestra manera de comunicar, vender y entender al consumidor
La irrupción de la inteligencia artificial generativa está significando una revolución cultural tecnológicamente impulsada que moldea constantemente la comunicación comercial y organizativa, las ventas y la comprensión del comportamiento del consumidor. A diferencia de anteriores olas tecnológicas, la IA reconfigura el modo en que conceptualizamos al consumidor mismo, transformándolo de sujeto pasivo de mensajes a nodo dinámico dentro de una red de interacciones personalizadas, automatizadas y predictivas. Tampoco es para nada descabellado comenzar a pensar en distintos agentes de IA generativa que actúen como consumidores, encargándose de contratar suministros y comprar productos para empresas y clientes finales. En el ámbito comunicativo, la IA está desplazando el paradigma de la mera segmentación demográfica hacia modelos de hiperpersonalización basados en datos conductuales y emocionales analizados, elaborados y utilizados de forma relevante cada vez con mayor rapidez. Gracias a tecnologías de procesamiento del lenguaje natural y análisis de sentimiento, los discursos pueden ser adaptados en tiempo real según la psicografía, las emociones y las necesidades latentes del usuario. Nivel de adaptación discursiva que remite a la “persuasión personalizada”, una forma de influencia que no solo considera quién es el individuo, sino también quién podría llegar a ser en función de sus motivaciones, aspiraciones y estados afectivos.
En ventas, la IA, adecuadamente configurada en cada entorno, puede operar como infraestructura invisible capaz de redefinir la experiencia del consumidor. Los sistemas de recomendación, los algoritmos de predicción de demanda y los chatbots inteligentes son capaces de optimizar el embudo de conversión, reconfigurándolo. El marketing digital se ha convertido, cada vez en mayor medida, en un ecosistema, donde la IA, operando en el corazón de diversas herramientas, coordina contenidos, canales y tiempos para maximizar la relevancia percibida y la eficiencia comercial. De esta forma, las decisiones de compra ya no se entienden como eventos discretos, sino como interacciones moduladas por un flujo constante de microinfluencias algorítmicas.
Entender y comprender las decisiones de compra lleva aparejada una transformación en la forma en la que entendemos al cliente. La IA recoge datos permitiendo inferir patrones de comportamiento, emoción y motivación. Probablemente, el consumidor contemporáneo sea mejor entendido como un sistema adaptativo complejo, influenciado por factores sociales, psicológicos, culturales y tecnológicos interrelacionados. La IA, correctamente configurada e implementada permite operacionalizar esta complejidad en tiempo real. Esta revolución no está exenta de riesgos. El uso intensivo de IA plantea cuestiones trascendentales sobre la privacidad, la ética del conocimiento de los usuarios a través del perfilado de los datos y metadatos recogidos en sus interacciones con nuestras plataformas, los límites del consentimiento y el respeto por la autonomía humana en las decisiones de compra. La delgada línea entre personalización e intrusión puede erosionar la confianza del cliente y abrir la puerta a formas sofisticadas de manipulación algorítmica. Por ello, el reto, más que técnico es moral: cómo equilibrar el poder predictivo de la IA con principios de transparencia, autonomía y justicia social.
En tus formaciones abordas temas como la psicología del consumidor y la sociología del consumo. ¿Qué patrones o cambios culturales recientes te parecen más relevantes para las marcas hoy?
Las marcas se enfrentan a transformaciones estructurales que van a redefinir, antes o después, su posicionamiento estratégico y su papel en la sociedad. Se trata de cambios culturales que no son superficiales ni coyunturales, son manifestaciones de una reconfiguración profunda, como lo demuestra la creciente centralidad de valores como la equidad de género, la justicia climática o la exigencia de transparencia en las cadenas de suministro, que reflejan expectativas sociales que antes eran marginales y hoy son núcleo del juicio ético sobre los valores de las marcas, las identidades y las expectativas colectivas, impulsadas por la convergencia de factores tecnológicos, políticos, medioambientales y generacionales. Para operar con relevancia y legitimidad en este nuevo paradigma, las marcas deben comprender estos patrones emergentes y reestructurar sus modelos de relación con el consumidor desde una lógica más ética, relacional y cultural.
Uno de los patrones más relevantes es la creciente fusión entre consumo e identidad. El consumo, cada vez en mayor medida, no se limita a la adquisición funcional de bienes o servicios; se ha convertido en un acto simbólico que permite a las personas construir, expresar y negociar su identidad en un entorno social mediado por la imagen y la narrativa personal. Esta transformación implica que cada elección de marca representa, implícita o explícitamente, una toma de postura. Las marcas, por tanto, no solo son evaluadas por la calidad de sus productos o la competitividad de sus precios, sino por lo que simbolizan. Los consumidores, especialmente los de generaciones más jóvenes, esperan que las marcas reflejen y refuercen sus valores: justicia social, diversidad, sostenibilidad, inclusión y transparencia. En este escenario, cuando una marca opta por no posicionarse de forma constructiva respecto a temas sociales o políticos relevantes, esa neutralidad puede percibirse como una forma de alineamiento tácito con el statu quo, lo que representa un tipo de posicionamiento pasivo que puede resultar perjudicial al ser interpretado como indiferencia o connivencia.
Asistimos también a una transformación en la relación entre los consumidores y las estructuras de poder, incluyendo aquí al poder corporativo. La erosión de la confianza en las instituciones tradicionales ha generado una cultura de escepticismo, en la que los consumidores exigen autenticidad radical. Esta autenticidad no puede simularse mediante campañas publicitarias estilizadas. Debe estar arraigada en la coherencia entre discurso y práctica, entre propósito declarado y acciones corporativas tangibles. De este modo, las marcas deben operar con una lógica de vulnerabilidad estratégica: reconocer errores, asumir posiciones claras, mostrar los procesos internos y participar en conversaciones sociales. Las narrativas corporativas deben abandonar la retórica publicitaria vacía y adoptar una voz más humana, empática y comprometida.
La digitalización ha acelerado y amplificado estas exigencias. Vivimos inmersos en una cultura de inmediatez, fragmentación e hiperconectividad, donde la atención es un recurso escaso y la relevancia, un activo volátil. En este ecosistema, la personalización, aunque siempre manteniendo la coherencia del mensaje, se ha convertido en un requisito fundamental. Ya no es viable la comunicación unidireccional ni los mensajes genéricos, las marcas deben adaptarse al ritmo, al lenguaje y al contexto emocional de sus audiencias, lo que exige el uso intensivo de tecnologías de análisis de datos, inteligencia artificial y diseño de experiencias adaptativas. Un ejemplo ilustrativo es el uso que hace Spotify de algoritmos para generar listas de reproducción personalizadas que se ajustan a los estados de ánimo del usuario sin recolectar datos sensibles innecesarios, o el caso de Patagonia, que emplea el análisis predictivo para ofrecer recomendaciones de productos basadas en prácticas sostenibles previas de compra y diseño de experiencias adaptativas, respetando en todo momento la privacidad del cliente. Este potencial tecnológico conlleva también, como ya se ha mencionado, responsabilidades de carácter ético: la personalización puede degenerar fácilmente en manipulación algorítmica o en explotación de vulnerabilidades psicológicas si no se gestiona con transparencia y límites claros.
Otro cambio cultural es la reformulación del concepto de bienestar. La idea de progreso, tradicionalmente asociada al crecimiento económico y la acumulación material, está siendo reemplazada por un paradigma centrado en la sostenibilidad, la salud mental, la calidad de vida y el propósito. En este nuevo marco, las marcas que promuevan estilos de vida equilibrados, prácticas de consumo consciente y propuestas que integren el bienestar personal con el bienestar colectivo, estarán mejor posicionadas para generar conexión emocional y lealtad. Se trata de ofrecer valor funcional y simbólico, al tiempo que se participa en la construcción de futuros deseables, desde una ética del cuidado y la responsabilidad compartida.
La participación activa del consumidor en la vida pública y empresarial adquiere una centralidad creciente. Las audiencias hace tiempo que no son receptoras pasivas de mensajes, son actores críticos que examinan, comentan, boicotean o respaldan públicamente las decisiones empresariales. En paralelo, el auge de los movimientos sociales globales y el empoderamiento comunicacional han dado lugar a un ecosistema cultural más participativo y deliberativo. Así, la gestión de marca debe incorporar dimensiones de gobernanza abierta, escucha activa y co-creación. Las estrategias más eficaces serán aquellas que conviertan a las comunidades en aliadas, no solo en clientes. Implica rediseñar los procesos de innovación, comunicación y distribución desde una lógica colaborativa, donde el conocimiento local, las emociones colectivas y la inteligencia distribuida se integren en el núcleo de la toma de decisiones.
Estos patrones culturales emergentes están interconectados y no deben abordarse de forma aislada. La marca contemporánea no puede fragmentarse entre el marketing, la sostenibilidad, la comunicación interna y la responsabilidad social corporativa. Debe operar como un sistema coherente, en el que cada acción, mensaje y decisión esté alineada con una visión holística del impacto social, cultural y medioambiental, exigiendo nuevas capacidades organizativas: pensamiento estratégico multidisciplinar, liderazgo ético, sensibilidad cultural y adaptabilidad continua. Las marcas que aspiren a liderar no serán las que griten más fuerte en el mercado, sino las que logren articular, desde la integridad, una narrativa compartida que inspire, movilice y transforme.
¿Qué papel tiene la ética y la responsabilidad social en el uso de herramientas digitales y de IA en contextos empresariales o institucionales?
Como se sugiere en otras secciones de la entrevista, la guía de los principios éticos en la implementación y uso de herramientas digitales y de inteligencia artificial implica una estructura normativa orientada no solo por consideraciones técnicas y crematísticas, sino por la alineación con principios fundamentales que sostienen las diversas modalidades del contrato social moderno. Principios como los de justicia, autonomía, beneficencia y no maleficencia, deben integrarse de forma transversal en el diseño, implementación y gobernanza de cualquier solución tecnológica que aspire a incidir en la sociedad o en procesos organizacionales.
La toma de decisiones algorítmicas debe abordarse desde una epistemología crítica de los datos. Los algoritmos, insisto en esto, no son neutrales: se entrenan con datos históricos, cuya génesis está arraigada en estructuras sociales que han reproducido desigualdades sistémicas. Por ello, el principio de justicia exige mecanismos rigurosos de identificación y mitigación de sesgos, tanto en los datos como en las lógicas algorítmicas. La evaluación algorítmica debe ser sometida a pruebas de equidad interseccional que contemplen variables como raza, género, edad, nivel socioeconómico y discapacidad, aplicando metodologías de fairness-aware machine learning y auditorías externas. La autonomía, como valor rector, demanda que los sistemas digitales respeten la capacidad de los usuarios y de los trabajadores para tomar decisiones informadas. La opacidad algorítmica atenta contra este principio. Por ello, es necesaria la implementación de mecanismos de explicabilidad, interpretabilidad y control humano, especialmente en ámbitos de alto impacto como, entre otros, la selección y gestión de personal, la aprobación de créditos, la atención sanitaria o la gestión pública. Exigencia que incluye la obligación de informar adecuadamente a los usuarios sobre cómo se utilizan sus datos, qué decisiones toma la IA y cuáles son sus consecuencias. Desde el punto de vista de la beneficencia y la no maleficencia, cualquier herramienta digital debe maximizar beneficios y minimizar daños, no meramente desde una simple lógica utilitarista, sino considerando los efectos distributivos y simbólicos de su uso. Una solución de IA que incremente la eficiencia operativa pero provoque sustituciones masivas de trabajadores, sin estrategias de reskilling o apoyo estructural, incurre en una forma de externalización ética inaceptable. Aquí, la responsabilidad social corporativa debe transformarse en una responsabilidad estructural, donde el impacto de las decisiones tecnológicas se mida, más allá de los términos financieros, en métricas éticas y sociales, como el bienestar subjetivo de los empleados, el acceso equitativo a los servicios o la sostenibilidad medioambiental.
En términos de gobernanza, las organizaciones deben establecer marcos institucionales que trasciendan la ética declarativa (a menudo plasmada en códigos y valores corporativos genéricos) hacia formas concretas de accountability. Esto puede hacerse mediante la creación de comités de ética tecnológica, auditorías independientes, participación de los interesados en alguna medida en el diseño de políticas algorítmicas y mecanismos de reparación para los afectados por decisiones automatizadas. Debe asumirse además la noción de «responsabilidad anticipatoria»: prever los escenarios de uso indebido, abuso o deriva funcional de las herramientas digitales y establecer las debidas salvaguardas ex ante. La ética aplicada en contextos digitales, por tanto, no puede ser reducida a una función aislada ni relegada a la última etapa del proceso de innovación. Su integración debe ser exógena y endógena. Exógena, al considerar el impacto laboral y social de amplio espectro que tiene la tecnología sobre el entorno. Endógena, al transformar los procesos internos de diseño, validación y adopción tecnológica. Esta doble dimensión es inseparable de una cultura organizacional basada en la deliberación racional, el aprendizaje continuo y la evaluación constante de consecuencias no intencionadas. La responsabilidad social en entornos digitales e institucionales es conveniente concebirla como una forma de corresponsabilidad de múltiples actores. Empresas, gobiernos, instituciones académicas y organizaciones civiles deben codiseñar marcos normativos dinámicos, capaces de adaptarse a la aceleración del cambio tecnológico sin perder el horizonte normativo de la dignidad humana. La ética no es una restricción a la innovación, sino su condición de legitimidad. Sin ella, el desarrollo digital pierde su anclaje civilizatorio y su utilidad para el Bien Común de la Humanidad en su conjunto y de los individuos en particular.
Como sociólogo, ¿cómo analizas la relación actual entre tecnología, poder y ciudadanía? ¿Estamos ante una nueva forma de control o de empoderamiento colectivo?
Ante todo quiero destacar que toda tecnología, toda herramienta, todo objeto es susceptible de ser usado por el ser humano, tanto en su agencia individual como colectiva, para el bien o para el mal según su responsabilidad y albedrío. Desde hace años, resulta evidente que se está cediendo, cada vez en mayor medida el protagonismo a ecosistemas digitales, compuestos por plataformas, infraestructuras de datos y algoritmos que penetran actividades cotidianas y procedimientos institucionales. Desde la sociología conviene observar esta mutación como una redistribución de la agencia y, al tiempo, como una metamorfosis en la manera en que los sujetos se constituyen en colectivos y sociales y políticos. Los artefactos (de latín arte factum “hecho con arte”) no son simples utensilios. Cada dispositivo, cada plataforma, cada LLM, cada herramienta digital materializa decisiones previas, estabiliza intenciones genéricas y orienta conductas futuras. Esa objetivación convierte al artefacto en coactor participante en la dimensión eficaz de la acción -transforma el entorno- y en la dimensión regulativa -condiciona la secuencia práctica-. Cuando la llave automática cierra la puerta o el algoritmo decide el orden de las noticias, la acción se distribuye entre humanos y objetos; la responsabilidad se diluye y la autoridad incrustada en el código se normaliza.
La digitalización amplifica el patrón descrito. Los macrodatos se presentan como una nueva naturaleza, abundante e inescrutable, disponible para la extracción constante de valor. Las plataformas que ofrecen servicios cotidianos despliegan una arquitectura que combina captura de trazas, rastros, huellas y metadatos con aprendizaje automático y personalización persuasiva. Se consolida de este modo un poder infraestructural sustentado en la previsión calculada de conductas y en la capacidad de modularlas en tiempo real. La ciudadanía queda inscrita en perfiles probabilísticos que anteceden a la decisión personal. La anticipación reemplaza el contrato social clásico por un pacto implícito fundado en la asimetría cognitiva. La misma red dispone, además, de condiciones para el surgimiento de nuevas formas de política de base. Las comunidades conectadas operan mediante anclajes conceptuales sencillos que facilitan la colaboración distribuida. Hashtags, memes o repositorios abiertos condensan orientaciones colectivas y reducen la complejidad, lo que favorece estallidos de movilización, campañas globales y posibilidad de fiscalización pública permanente allí donde la difusión de bulos y campañas de desinformación no la esterilizan. El protagonismo se desplaza del grupo estable a la constelación efímera articulada sobre la circulación de recursos simbólicos y la plasticidad identitaria. Conviene tener muy presente que la delegación masiva de decisiones a sistemas automáticos reduce márgenes de deliberación colectiva. Un empleo crítico de esos sistemas abre la posibilidad de ensanchar dichos márgenes. La clave reside en la reprogramación de los artefactos para incorporarlos a lógicas democráticas y humanistas. El horizonte que se perfila reclama nuevas competencias cívicas. La alfabetización algorítmica, la creación de comunidades y repositorios de datos abiertos y la exigencia de transparencia operan como contrapesos frente al poder de las infraestructuras. Prácticas de auditoría ciudadana, cooperativas de plataforma y marcos regulatorios que garanticen acceso a los modelos de decisión delinean el nuevo “constitucionalismo” digital. La promesa emancipadora no depende solo de la conectividad: reposa en la capacidad colectiva para gobernar el propio medio técnico. Así podemos decir que nos encontramos en una fase reflexiva de la modernidad, donde la tecnología actúa como problema y recurso a la vez. Resulta necesario sustituir la dicotomía entre determinismo y voluntarismo por el estudio de configuraciones concretas que emergen en la interacción de códigos, instituciones y prácticas. De ese examen crítico dependerá orientar la innovación hacia un orden social y político en el que la potencia de los algoritmos se alinee con la autonomía de la ciudadanía y el Bien Común.
https://www.linkedin.com/in/rodrigodelolmofernandez/