
Internacional, 5 de Marzo de 2026.- Datos de la consultora Sensor Tower revelan una fuerte reacción de los usuarios tras conocerse que OpenAI firmó un acuerdo con el Departamento de Defensa de Estados Unidos. La aplicación registró un aumento del 295% en desinstalaciones y una avalancha de reseñas negativas.
La aplicación móvil de ChatGPT registró un aumento del 295% en su tasa de desinstalaciones en Estados Unidos el sábado 28 de febrero, en comparación con el día anterior, según datos de la consultora Sensor Tower.
El repunte coincide con la confirmación de un acuerdo entre OpenAI y el Departamento de Defensa de Estados Unidos para sustituir, en determinados proyectos oficiales, los modelos desarrollados por la empresa Anthropic.
De acuerdo con Sensor Tower, en condiciones normales la tasa diaria de desinstalaciones de la aplicación ronda el 9%. Sin embargo, ese sábado se produjo un incremento inusual, acompañado por un fuerte deterioro en las valoraciones de la app en las tiendas móviles.
Las reseñas de una estrella aumentaron un 775% ese mismo día, y el domingo registraron un crecimiento adicional del 100%. En paralelo, las calificaciones de cinco estrellas cayeron un 50%, reflejando el malestar de parte de los usuarios.
La reacción estuvo impulsada por una campaña en redes sociales bajo la consigna “Cancel ChatGPT”, promovida por usuarios que cuestionaron el alcance ético del acuerdo con el Pentágono.
El origen de la polémica
La controversia surgió luego de que trascendiera que el Departamento de Defensa buscaba reemplazar los modelos de Anthropic, en particular Claude, que venían utilizándose en algunos entornos gubernamentales.
Según diversos reportes, Anthropic había establecido restricciones explícitas para evitar que su tecnología fuera utilizada en vigilancia masiva o en el desarrollo de armas autónomas.
Ante la intención del Pentágono de flexibilizar esas limitaciones, la empresa habría decidido no modificar sus condiciones. Posteriormente, OpenAI anunció un acuerdo para que ChatGPT ocupe ese lugar en determinados proyectos oficiales.
Críticas a Sam Altman
La decisión también generó cuestionamientos hacia Sam Altman, director ejecutivo de OpenAI.
Altman había respaldado previamente la postura de Anthropic respecto a los límites éticos en el uso de la inteligencia artificial. Sin embargo, horas después confirmó el acuerdo con el Departamento de Defensa, lo que algunos sectores de la comunidad tecnológica interpretaron como un cambio de postura.
Tras la reacción negativa, Altman aseguró que se incorporaron enmiendas al acuerdo para aclarar los límites de uso de la tecnología.
Según explicó, se añadieron protecciones relacionadas con la vigilancia masiva, aunque no se detallaron restricciones específicas sobre el desarrollo de armas autónomas letales.
Claude gana terreno
El impacto de la polémica no se limitó a las desinstalaciones.
La consultora Appfigures informó que, por primera vez en Estados Unidos, las descargas de la aplicación Claude superaron a las de ChatGPT el mismo sábado.
Además, Claude se posicionó como la aplicación más descargada en al menos seis países fuera de Estados Unidos, entre ellos Bélgica, Canadá, Alemania, Luxemburgo, Noruega y Suiza.
El «Efecto Streisand»
Analistas del sector consideran que el episodio puede interpretarse como un ejemplo del llamado “efecto Streisand”, fenómeno en el que un intento de desacreditar o presionar a una entidad termina generando el resultado contrario.
En este caso, la negativa de Anthropic a modificar sus límites de uso habría fortalecido su imagen como una empresa comprometida con el desarrollo ético de la inteligencia artificial, lo que influyó en el cambio de percepción de algunos usuarios.
No obstante, la situación también plantea desafíos para la compañía.
Según reportes citados por Reuters, varios departamentos y agencias gubernamentales estadounidenses comenzaron a migrar hacia los modelos de OpenAI, lo que podría impactar en el posicionamiento de Anthropic en el sector.
Además, existe incertidumbre sobre cómo esta controversia podría afectar su reciente ronda de financiación, valorada en 60.000 millones de dólares.
Aunque por ahora no se han anunciado medidas adicionales por parte del Departamento de Defensa, el episodio refleja la creciente tensión entre el desarrollo de inteligencia artificial, su uso en entornos militares y las expectativas éticas de los usuarios.
Fuente: Red Uno
