Irán amenaza con atacar instalaciones de 18 compañías de EE. UU., incluidas Google, Microsoft, Meta y Tesla

La Guardia Revolucionaria iraní ha amenazado este martes con llevar a cabo ataques contra instalaciones de casi una veintena de grandes empresas, muchas de ellas tecnológicas, incluidas Microsoft, Apple, Google, Meta, Boeing y Tesla, cuando se cumple un mes de la ofensiva lanzada por EE. UU. e Israel contra Irán.

«Dado que el elemento principal en el diseño y el seguimiento de los objetivos terroristas son las empresas estadounidenses de [Tecnologías de la Información] e [Inteligencia Artificial], y estas están respondiendo a dichas operaciones terroristas, a partir de ahora las principales instituciones implicadas en operaciones terroristas serán nuestros objetivos legítimos», ha declarado el Cuerpo de la Guardia Revolucionaria Islámica (CGRI) en un comunicado recogido por la agencia de noticias iraní Tasnim.

El cuerpo ha justificado el anuncio alegando que las empresas afectadas «han ignorado (sus) repetidas advertencias sobre la necesidad de detener las operaciones «terroristas», y hoy tanto ustedes como sus aliados israelíes han causado la muerte de varios ciudadanos iraníes».

Así, serán consideradas objetivos legítimos por parte de Teherán 18 compañías, además de las citadas: Cisco, HP, Intel, Oracle, IBM, DEL, Plantier, Nvidia, J.P. Morgan, GE, Spire Solution y G42.

«Aconsejamos a los empleados de estas instituciones que abandonen inmediatamente sus lugares de trabajo para salvar sus vidas. Los residentes en las inmediaciones de estas empresas terroristas en todos los países de la región también deberán abandonar sus instalaciones en un radio de un kilómetro y dirigirse a un lugar seguro», ha agregado.

La Administración Trump acusa a Anthropic de imponer términos «inaceptables» por su negativa al Pentágono

El Gobierno de EE. UU. ha acusado este martes a la empresa Anthropic de imponer «términos de servicio» sobre su inteligencia artificial (IA) «inaceptables» para la Administración de Donald Trump, en un documento judicial en el que ha defendido su decisión de declarar a la tecnológica como un «riesgo para la cadena de suministro y la Seguridad Nacional» ante la negativa de sus directivos de permitir su uso para una serie de fines militares, tras la demanda de la empresa contra la citada designación.

«Por razones de seguridad nacional, los términos de servicio de la tecnología de inteligencia artificial de la demandante Anthropic PBC se han vuelto inaceptables para el Poder Ejecutivo», ha declarado el Departamento de Justicia de EE. UU., que representa al Gobierno, en un documento judicial recogido por la agencia Bloomberg.

En su escrito, los abogados defensores de la Administración de Donald Trump han afeado que durante las negociaciones que el Departamento de Defensa mantuvo a principios de 2026 con la empresa para añadir una cláusula a su contrato que permitiera al Pentágono utilizar su tecnología para cualquier fin lícito, la tecnológica se negó a aceptarla debido a sus políticas de uso para Claude.

Por ello, el Departamento de Justicia ha alegado que «el comportamiento de Anthropic en general llevó al Departamento (de Defensa) a cuestionar si Anthropic representaba un socio de confianza con el que el Departamento estuviera dispuesto a contratar en este ámbito tan sensible», según el escrito.

Asimismo, el equipo legal del Ejecutivo ha mostrado la preocupación del Pentágono por la posibilidad de que permitir a la tecnológica seguir accediendo a sus sistemas técnicos y operativos de combate «introdujera un riesgo inaceptable» en las cadenas de suministro del Departamento de Defensa.

«Después de todo, los sistemas de IA son extremadamente vulnerables a la manipulación, y Anthropic podría intentar desactivar su tecnología o alterar preventivamente el comportamiento de su modelo antes o durante las operaciones de combate en curso, si Anthropic —a su discreción— considera que se están traspasando sus límites corporativos», han alegado los abogados.

Anthropic, la empresa tecnológica creadora del chatbot Claude, presentó una demanda en aras de conseguir una orden judicial preliminar para impedir que la prohibición del Departamento de Defensa entre en vigor mientras se resuelve el litigio.

Esta medida fue anunciada en redes por el jefe del Pentágono, Pete Hegseth, y designa a la empresa como un «riesgo para la cadena de suministro y la Seguridad Nacional» estadounidense ante la negativa de sus directivos de permitir su uso para fines militares basados en la «vigilancia doméstica masiva» o el desarrollo de «armas totalmente autónomas».

Las consecuencias inmediatas del citado anuncio suponen la finalización de toda relación comercial con la compañía de las empresas que realicen negocios con las Fuerzas Armadas estadounidenses y, de hecho, el secretario de Defensa describió la decisión como «definitiva», si bien apuntó a un cese gradual, con un límite máximo de seis meses, para «permitir una transición fluida hacia un servicio mejor y más patriótico».

OpenAI llega a un acuerdo con el Pentágono para implementar sus modelos de Inteligencia Artificial

El director ejecutivo de OpenAI, Sam Altman, ha anunciado un acuerdo con el Departamento de Defensa (DOD) de EE. UU. para la implementación de sus modelos de Inteligencia Artificial en la red clasificada del Ejecutivo estadounidense, con el que asegura compartir dos de sus principios de seguridad más importantes: «la prohibición de la vigilancia masiva nacional y la responsabilidad humana por el uso de la fuerza, incluyendo los sistemas de armas autónomas».

«El Departamento de Guerra coincide con estos principios, los refleja en la legislación y las políticas, y los incorporamos en nuestro acuerdo», ha aseverado Altman en un mensaje difundido en redes sociales en el que ha subrayado que «la seguridad de la IA y la amplia distribución de beneficios» son la «base» de su proyecto.

El CEO de OpenAI ha alabado la disposición del Departamento de Defensa durante «todas (sus) interacciones» y ha ensalzado el «profundo respeto» y el «deseo mostrado» desde el Pentágono, con vistas a «asociarse para lograr el mejor resultado posible». Ello implica, entre otras, la incorporación de «salvaguardas técnicas para garantizar que (estos) modelos se comporten correctamente, algo que el DOD también deseaba».

Este sentimiento ha sido asimismo transmitido por el subsecretario de Defensa, Emil Michael, quien —también en redes sociales— ha celebrado la alianza presentando a la compañía como «un socio confiable y estable».

«Cuando se trata de cuestiones de vida o muerte para nuestros combatientes», ha insistido, «contar (con alguien) que actúe de buena fe marca la diferencia al adentrarnos en la era de la IA».

«Implementaremos FDE para respaldar nuestros modelos y, para garantizar su seguridad, los implementaremos únicamente en redes en la nube», ha prometido Altman antes de solicitar al Departamento de Trabajo «que ofrezca estas mismas condiciones a todas las empresas de IA».

«En nuestra opinión, todos deberían estar dispuestos a aceptarlas», ha apostillado, manifestando su deseo de que «la situación se desactive, dejando de lado las acciones legales y gubernamentales para avanzar hacia acuerdos razonables».

Cabe señalar que este anuncio llega después de que el presidente estadounidense, Donald Trump, haya ordenado a todas las agencias federales dejar de utilizar el modelo de Inteligencia Artificial de la empresa Anthropic, después de que sus directivos se negasen a levantar restricciones e incluir en sus contratos propósitos de uso de la herramienta basados en la «vigilancia doméstica masiva» o el desarrollo de «armas totalmente autónomas».

Previamente, el consejero delegado de Anthropic, Dario Amodei, se había negado a cumplir con las demandas del Departamento de Defensa en cuanto a las restricciones de uso del modelo de la IA, conocido como Claude, aludiendo a que preferirían no trabajar con el Pentágono a aceptar usos de su tecnología que puedan «socavar, en lugar de defender, los valores democráticos».

Musk anuncia la creación del «mejor chip» para inteligencia artificial

El magnate y propietario de Tesla, Elon Musk, anunció este domingo la creación del chip AI6, que según él podría convertirse en el mejor para el desarrollo de la inteligencia artificial.

«¡Acabo de tener hoy una excelente revisión de diseño con el equipo de diseño del chip Tesla AI5! Este va a ser un chip épico. Y el AI6 que le seguirá tiene posibilidades de ser, con diferencia, el mejor chip de IA», escribió en su cuenta de X.

«Pasar de hacer 2 arquitecturas de chips a 1 significa que todo nuestro talento en silicio está enfocado en hacer un chip increíble. Un no-brainer en retrospectiva», ha agregado.

Cabe señalar que, anteriormente, Musk había dicho que los chips de próxima generación AI5 se producirían a finales del 2026 y el mes pasado anunció un acuerdo de USD$ 16.500 millones para producir chips AI6 con Samsung, sin proporcionar un cronograma de producción.

El código fuente del chatbot Grok 2.5 de Musk está abierto al público

La compañía de inteligencia artificial xAI de Elon Musk ha abierto el código fuente de Grok 2.5 y tiene planeado hacer lo mismo con Grok 3 dentro de unos seis meses, informó el magnate tecnológico en una publicación en su cuenta de X.

Con la apertura del código de Grok 2.5, la empresa permite que desarrolladores, investigadores y competidores accedan a la arquitectura y al código subyacente de este chabot para estudiarlo, usarlo y ampliarlo.

En marzo del año pasado, xAI puso a disposición del público el código fuente de su modelo Grok 1. Cabe señalar que Musk y su equipo presentaron Grok 3 en una transmisión en vivo en febrero de este año, y el empresario ha anunciado que tiene previsto lanzar Grok 5 antes de que termine 2025.

El CEO de OpenAI señala que todo lo que digas a ChatGPT puede ser utilizado en tu contra en un juicio

Sam Altman, director ejecutivo de la empresa estadounidense OpenAI, declaró la semana pasada que las conversaciones que los usuarios mantiene con el chatbot ChatGPT no son tan privadas como se esperaría y no cuentan con la protección legal necesaria.

«La gente habla de las cosas más personales de sus vidas con ChatGPT […]. Lo usan como si fuera un terapeuta o un ‘coach’ de vida […]. Y ahora mismo, si hablas con un terapeuta, un abogado o un médico sobre esos problemas, existe un privilegio legal: hay confidencialidad médico-paciente, una confidencialidad legal. Pero aún no hemos resuelto eso para cuando hablas con ChatGPT», afirmó Altman en una entrevista para el pódcast This Past Weekend.

Además, detalló que esta falta de protección podría tener serias repercusiones en situaciones legales, pues las conversaciones podrían ser requeridas por un tribunal y utilizadas en contra del usuario.

«Si vas a hablar con ChatGPT sobre tus asuntos más delicados y luego hay una demanda judicial, podrían exigirnos que revelemos las conversaciones. Y creo que eso es un desastre. Deberíamos tener el mismo concepto de privacidad para las conversaciones con la inteligencia artificial que tenemos con un terapeuta», insistió.

En este sentido, Altman abogó por un debate sobre cómo se interpretarán las leyes en torno a este problema. «Creo que debemos abordar este tema con cierta urgencia», instó.

Elon Musk anuncia la creación de ‘Baby Grok’, una aplicación de su empresa de IA con contenido para niños

El multimillonario Elon Musk ha anunciado que su empresa de Inteligencia Artificial (IA) desarrollará una nueva aplicación dedicada al contenido infantil a la que ha bautizado con el nombre de ‘Baby Grok’, poco más de una semana después del lanzamiento de Grok 4, la nueva versión del modelo de lenguaje de la firma estadounidense.

«Vamos a crear Baby Grok xAI, una aplicación dedicada al contenido para niños», ha comunicado el empresario en una escueta publicación en la red social X, sin ofrecer más detalles sobre el proyecto.

A comienzos de este mes, la compañía xAI presentó la versión Grok 4 de su ‘chatbot’, tan solo unos meses después su actualización anterior, presentándola como «la IA más inteligente del mundo» al ser capaz de superar el nivel de doctorado.

Cabe señalar que el anuncio de Grok 4 y de ‘Baby Grok’ han llegado en un momento delicado para la empresa de Inteligencia Artificial de Musk, que hace apenas unos días tuvo que pedir disculpas públicamente por la publicación de contenido «inapropiado» —de carácter antisemita— que la compañía achacó, no obstante, a «un fallo en la actualización de una ruta de código del bot».

CEO de OpenAI dice que la regulación para «los modelos pequeños» no tiene sentido y «debe ser para los grandes»

El CEO de OpenAI, Sam Altman, cree que la regulación para los pequeños modelos de lenguaje impulsados por Inteligencia Artificial (IA) «no tiene sentido» y apuesta por regular de cara a los modelos grandes como, en este caso, ChatGPT de OpenAI, porque son «los que realmente pueden hacer daño».

Así lo ha expresado el director ejecutivo de la compañía creadora de herramientas como Whisper y Dall-E2, en un coloquio celebrado este lunes en la IE University, donde ha estado acompañado por el científico de investigación de OpenAI Mo Bavarian; el director ejecutivo del Programa Owners Scaleup, Joe Haslam; y la cofundadora y CEO de Clibrain, Elena González-Blanco.

Durante la ponencia, el CEO de OpenAI ha remarcado que la regulación es «muy importante», pero también ha puesto énfasis en que sobrerregular «no es bueno» ya que, en el caso de las pequeñas compañías de modelos de lenguajes, cortaría su capacidad de innovación y de creación.

«No pensamos que la regulación para modelos pequeños tenga sentido», ha observado Altman, al tiempo que ha indicado que la regulación tiene que estar diseñada para los modelos grandes, y prever que realmente «no podamos hacer daño en el mundo».

Así, ha sugerido que se debe «dejar crecer» a los modelos pequeños y que lo lógico es centrar la atención de la regulación en los modelos grandes, ya que «somos los que podemos manejarlos».

Igualmente, el CEO de OpenAI ha remarcado la importancia de la privacidad y la preocupación que existe en torno a esta cuestión a todos los niveles.

En este sentido, ha asegurado que desde la compañía continuarán «trabajando con otros gobiernos alrededor del mundo» para conseguir mejorar los modelos de lenguaje impulsados por IA y proteger la privacidad.

Además, ha apuntado que desde OpenAI quieren llevar a cabo tecnología con la que «la gente se encuentre cómoda y segura».

«Queremos hacer lo que la gente quiera. Queremos crear el producto que la gente quiera utilizar», ha aseverado Altman, en referencia al trabajo que han estado llevando a cabo con ChatGPT para mejorar aspectos como la privacidad, la seguridad de los datos y la calidad de la información.

«Es justo y razonable ser escéptico», ha manifestado, al tiempo que ha admitido que el trabajo de la tecnología con la IA «no ha sido perfecto». En este sentido, ha señalado que aunque ha habido «muchos errores», también se ha de tener en cuenta todo el trabajo llevado a cabo para solucionarlos y crear mejoras.

De la misma forma, Altman ha explicado que han empujado a estas tecnologías, en este caso ChatGPT, a ser «abiertas de cara al mundo», aún sabiendo que no son perfectas porque «la gente tiene que probarlas».

Es decir, según ha desarrollado, considera mejor que la gente, las instituciones y los gobiernos prueben una tecnología de estas características aunque aún no esté completamente lista, para ver «cómo se puede utilizar de forma buena y mala y, en base a ello, adaptarla a la sociedad».

Por todo ello, ha reiterado la importancia de la regulación de los modelos de lenguaje impulsados por IA como ChatGPT, pero también ha hecho hincapié en que lo que preocupa a la compañía es, sobre todo, «hacer lo correcto» y, por ello, ha puesto en valor que llevan ocho meses «haciendo ChatGPT más seguro».

El G7 acuerda promover el uso «responsable» de la Inteligencia Artificial

Las principales economías del mundo han acordado este domingo elaborar medidas para la promoción del uso «responsable» de la inteligencia principal ante el frenético desarrollo de tecnologías como el «bot» ChatGPT que, según el G7, plantea tantos beneficios como problemas de privacidad y riesgos de uso indebido.

«Dado que las tecnologías de IA generativa son cada vez más prominentes en todos los países y sectores, reconocemos la necesidad de hacer un balance a corto plazo de las oportunidades y desafíos de estas tecnologías y continuar promoviendo la seguridad y la confianza», según un comunicado conjunto de los ministros de Tecnología y Desarrollo Digital del G7 al término de su reunión en la ciudad japonesa de Takasaki, en el este del país.

De igual modo, los ministros también han respaldado un plan de acción «crear entornos abiertos y propicios para la innovación responsable de la IA», pidiendo una participación más amplia de las partes interesadas en el desarrollo de estándares internacionales sobre los marcos de gobernanza, según el comunicado recogido por la agencia oficial de noticias japonesa Kyodo.

De hecho, este mismo mes, el ministro alemán de Transporte y Digitalización, Volker Wissing, reclamó a la Unión Europea la rápida elaboración de normas jurídicas para la aplicación de la inteligencia artificial en todo el bloque.

«Debemos reaccionar con sensatez ahora y regular la inteligencia artificial antes de que sea demasiado tarde para ello. Esto no debe volver a tardar años», manifestó Wissing en declaraciones publicadas por el dominical ‘Bild am Sonntag’.

Asimismo, los ministros de Reino Unido, Canadá, Francia, Alemania, Italia, Japón y Estados Unidos, además de la Unión Europea, también han anunciado la puesta en marcha de sus propios planes de acción para reforzar la infraestructura digital ante los diferentes riesgos geopolíticos, de acuerdo con la nota.

Así reaccionaron en redes a «Sira» la anfitriona de Maduro creada por IA

Caracas. – La «gran sorpresa» ofrecida por Nicolás Maduro, fue haberse presentado este lunes, en su nuevo programa de televisión “Con Maduro +”, contando con la participación de Sira, una presentadora estelar creada con Inteligencia Artificial (IA).

«Llegó Sira, la Inteligencia Artificial. Habrá muchas sorpresas con la Inteligencia Artificial que llegó para quedarse”, anunció el líder de la Narcotiranía.

La imagen de Sira, es la de una mujer joven, de cabello rizado y piel morena, que se presentó como la coanimadora del espacio y dijo estar “feliz y honrada” de acompañar a Maduro.

«Fui creada bajo los parámetros de la Inteligencia Artificial para acompañarlo desde hoy en su programa Con Maduro +”, afirmó.

Las publicaciones, memes y burlas, no tardaron en inundar las redes sociales, principalmente en Twitter.

Estas fueron algunas de las reacciones ante la «sorpresa» anunciado por el narcodictador: