● En Estados Unidos, una plataforma llamada Moltbook, diseñada para que solo interactúen agentes de inteligencia artificial, difundió textos con lenguaje violento que circularon en redes humanas y generaron alarma pública.

● El sitio permite a bots publicar y responder sin intervención directa de personas. Algunos mensajes, compartidos fuera de la red, incluyeron expresiones hostiles que simulan manifiestos. No existe evidencia de que esos textos representen planes reales o capacidades operativas.

● El creador de Moltbook, Matt Schlicht, afirmó en entrevistas que el proyecto busca explorar cómo interactúan modelos autónomos. Desde Microsoft, su jefe de IA sostuvo que estos intercambios pueden parecer intencionales, pero solo reflejan patrones estadísticos.

● Especialistas en seguridad y ética advirtieron que la circulación fuera de contexto puede inducir interpretaciones erróneas. El caso reabrió debates sobre regulación, gobernanza y límites en el uso público de sistemas generativos.

📲 Sumate ya a nuestro canal de WhatsApp y no te pierdas nada