Hace unos días, el célebre director de OpenAI, Sam Altman, irrumpió en su cuenta oficial de X (ex-Twitter) con una declaración que generó bastante revuelo en el mundo tecnológico y en quienes siguen con interés los temas de la cultura digital.
“Nunca me tomé muy serio la teoría del Internet muerta, pero parece que ahora hay muchas cuentas de Twitter administradas por el LLM”, escribió el ejecutivo quien expresó su preocupación ante un fenómeno que puede ser en poco tiempo, algo inmanejable, es la posibilidad de que la mayoría de los contenidos e interacciones en la red de redes sean ya obra de “bots” y no de personas físicas humanas.

Altman dirige la compañía desarrolladora del ‘chatbot’ de inteligencia artificial (basada en la tecnología LLM “Large Language Model” o “Modelo de Lenguaje Extenso) más famoso y utilizado en el mundo que se llama ChatGPT y estos dichos no hacen más que confirmar sus sospechas y que la teoría de que “Internet esté muerta”, es una realidad concreta y no solo una mera hipótesis.
Cada vez que brindó opiniones sobre tecnología, inteligencia artificial y startups y cómo puede impactar estos avances en las sociedad en el futuro, ha sido tomado muy en cuenta, porque en definitiva, son las puntas de profundos debates que están dándose en el plano internacional, tanto en las mesas de discusión políticas, económicas, militares y culturales.
Teniendo en cuenta esta afirmación y si, se lo toma con seriedad ¿es motivo de preocupación para la vida cotidiana del ciudadano o usuario promedio, incluso ubicado en este punto del territorio sanjuanino al pie de la cordillera?
Quizás en lo inmediato y en el corto plazo, no sea tan importante con semejante contexto de crisis económica y social por estas latitudes. Pero si se mira por encima de la agenda temática diaria, habría que preguntarse ¿cuál es el estado actual de Internet y qué uso ético se le está dando a esta herramienta de comunicación?.
Una de las grandes problemáticas que se abordan tanto en ámbitos académicos, en foros y en sectores sociales o gubernamentales, es la cuestión de la privacidad, la desinformación y los hábitos de consumo de los contenidos culturales en línea. Como así también, de la evolución tecnológica de la World Wide Web (WWW) y cómo las tecnologías emergentes están modificando la manera de cómo se interactúa en el mundo digital en línea.
Pero para no enredarse y perderse en laberintos conceptuales, cables y circuitos electrónicos, hay que empezar por desentrañar de qué habla esta teoría en cuestión.
¿Qué significa que Internet está muerta?
Esta teoría afirma que Internet cambió su forma de ser en algún momento entre 2016 y 2017, cuando, según los defensores de la hipótesis, la mayoría de las publicaciones y comentarios en línea empezaron a escribirlos no personas físicas, sino “bots” o modelos automatizados.

Un “bot” es un programa informático que realiza tareas predefinidas, a menudo imitando el comportamiento humano. Estos programas pueden ser útiles, como los rastreadores de motores de búsqueda o los chatbots de atención al cliente que responden preguntas de los consumidores, (por lo general son bautizados con nombres simpáticos, otros no tanto), que ya son visibles en todo tipo de servicios, desde el home banking, hasta para consultar por el soporte técnico, o sistema de solución de problemas, de una empresa o institución. Incluso hay “bots” considerados como dañinos, que difunden spam, realizan ataques o recopilan datos de forma maliciosa.
En 2021, un usuario de un foro sostuvo que gran parte de Internet es creada y gestionada por IA. El punto de partida y lo que genera tantas controversias e ideas conspirativas de un plan aun mayor que muy pocos pueden detectar: “He visto los mismos hilos, las mismas fotos y las mismas respuestas republicadas una y otra vez a lo largo de los años, hasta el punto de considerarlo insignificante”, aseguró el internauta. “Internet se siente vacío y sin gente. También está vacío de contenido. Comparado con el Internet de, digamos, 2007 (y más allá), el Internet de hoy es completamente estéril. No hay ningún lugar adónde ir ni nada que hacer, ver, leer o experimentar”, lamentó este usuario anónimo. De acuerdo con su conclusión, “el Gobierno de Estados Unidos está llevando a cabo una manipulación de la inteligencia artificial de toda la población mundial”.
Esta tesis sobre la muerte de Internet, parece que dejó de estar presente en las charlas marginales para estar en el centro de la polémica por el futuro digital y esto fue lo que hizo Altman, la persona que está detrás de OpenAI y que se manifestó públicamente estar de acuerdo con algunos de sus postulados en medio de una época donde se multiplican a escala global el despliegue masivo de algoritmos avanzados de IA en los principales servidores de las empresas tecnológicas y de las plataformas de redes sociales. Por lo cual, estas dudas y temores siembran la idea de una deshumanización peligrosa.
Los riesgos del uso irresponable de la IA
Esto es un campo fértil para la propagación de interacciones, publicaciones, comentarios, reseñas y por supuesto, de noticias falsas (fake news) que son generados de manera automatizada por los llamados “bots” que simulan ser humanos.
La IA generativa puede producir fácilmente millones de artículos, videos, imágenes y hasta sonidos de manera cada vez más optimizada para posicionar sitios webs, aumentar ganancias publicitarias con el más mínimo costo. Y por lo tanto, esta teoría sostiene que, en consecuencia, esta multiplicación exponencial de contenido digital terminará saturando la Red de información “basura” que relegará la creatividad humana a un nivel marginal.
Como efecto secundario, esta pérdida de autenticidad será la que termine de matar los espacios de interacción humana y que las personas ya no se comuniquen con otro, sino con un algoritmo o simulación artificial. La web así, terminará de convertirse en una gran máquina generadora de contenido falso y dirigido.

Por este motivo, los dichos de Sam Altman son a tener en cuenta y resultan casi paradójicos, puesto que la tecnología que él impulso y desarrolló -el LLM- para imitar al lenguaje humano, es uno de los motores de expansión de estos generadores de contenidos que conducirán a la deshumanización de Internet y que ésta, escape del control humano.
Uno de los llamados de atención y que pueden encender las alarmas, son los resultados de consultoras especializadas en ciberseguridad. Los datos que arrojan indican que casi la mitad del tráfico global en Internet podría ser generado por los famosos “bots”, aunque no todos obedecen a intenciones maliciosas. Si bien, todavía no existe evidencia certera de que gran parte de la web esté efectivamente “muerta”, la proliferación de cuentas falsas, sistemas automatizados de contenidos (construidos a partir de IA generativa) empiezan a surgir dudas y críticas sobre la autenticidad de las operaciones e interacciones de personas reales en línea.
Por eso resulta cada vez complejo discernir y diferencias usuarios reales o si se está contactando a un algoritmo. Es aquí donde se ponen en relieve los dilemas éticos y filosóficos en cuestiones clave: ¿cómo proteger la creatividad y el derecho de autor o la propiedad intelectual de las personas físicas? ¿Quién tiene acceso sobre los datos que los usuarios comparten en los servidores de las plataformas sociales?
El comentario de Altman reavivó esta teoría que dejó de ser pura conspiración a una invitación a una seria discusión sobre la autenticidad de la vida digital y cómo la IA impacta en la conducta de los seres humanos. En resumen, la declaración de Altman puso en el centro de la discusión la influencia de la IA en la web y cómo esto podría estar cambiando la naturaleza de las interacciones en línea. Y esto, aunque no parezca, puede ser de vital importancia para la toma de decisiones de las personas y con alto grado de responsabilidad civil, política o militar también.
La dominación de las redes sociales por “bots” pueden tener un grave efecto de manipulación en la opinión pública, la difusión masiva de noticias falsas y aumentar los grados de desinformación, hasta alterando la integridad de los procesos democráticos y electorales. El caso de Cambridge Analitica en Argentina y el caso de lo que se conoció como “Brexit” en Gran Bretaña, fueron claros ejemplos de los efectos de manipulación a través de las plataformas digitales. No solo en el ámbito público, también en el personal y privado, ya que pueden ser riesgosos si su uso no es responsable, hasta puede generar adicción y alterar la salud mental y emocional de los usuarios.
Es por tal motivo que se vuelve fundamental una adecuada educación o alfabetización digital en los usuarios y que se promueva la toma de conciencia sobre la desinformación, la responsabilidad en las redes sociales y la verificación de las identidades en línea para la verificación de cuentas y contenidos falsos. Y por último, la implementación de medidas regulatorias de los Estados-Nación ante las corporaciones privadas y la transparencia de sus operaciones, es un terreno que está todavía en una disputa abierta, respecto a la soberanía tecnológica.
¿Qué dice la UNESCO sobre el uso de la IA?
La UNESCO tiene una postura muy clara sobre el uso de la Inteligencia Artificial (IA). La entidad que depende de las Naciones Unidas, busca promover su desarrollo y aplicación de manera ética, inclusiva y centrada en el ser humano. Según la organización, la IA tiene un enorme potencial para abordar desafíos globales, como los Objetivos de Desarrollo Sostenible (ODS), pero también plantea riesgos significativos que deben ser gestionados. Entre sus principios centrales estipula:
- Ética de la IA: existe la Recomendación sobre la Ética de la Inteligencia Artificial, adoptada por 193 Estados Miembros en 2021 (incluyendo Argentina), que establece principios y valores para garantizar que la IA se desarrolle y utilice de manera responsable.
- Enfoque centrado en el ser humano: La IA debe diseñarse y aplicarse priorizando el bienestar y los Derechos Humanos.
- Inclusión y equidad: los beneficios de la IA deben ser accesibles para todos, evitando ampliar brechas tecnológicas y sociales.
- Educación: La IA en la educación es un área clave para la UNESCO, que promueve su uso para innovar prácticas de enseñanza y aprendizaje, siempre con principios de inclusión y equidad.
Entre las iniciativas y publicaciones que la organización desarrolló, están la “Guía para las personas a cargo de formular políticas sobre IA en educación y los Marcos de competencias en materia de IA” para estudiantes y docentes, para apoyar a los Estados Miembros en la implementación responsable de la IA.
En síntesis, desde los organismos supranacionales, se promueve un enfoque ético y centrado en el ser humano para el desarrollo y uso de la IA, buscando maximizar sus beneficios mientras se mitigan sus riesgos que impacten negativamente sobre las sociedades.
Para conocer más sobre este tema consultar aquí:

