IBM z16 es el primer sistema con seguridad cuántica de la industria[1]
Hoy, IBM presentó IBM® z16™, el sistema de última generación con un acelerador de IA integrado en el chip, que ofrece inferencia de latencia optimizada. Esta innovación está diseñada para permitir a los clientes analizar transacciones en tiempo real, a escala, para cargas de trabajo de misión crítica como tarjetas de crédito, salud y transacciones financieras. Desarrollado sobre la historia de liderazgo en seguridad de la compañía, IBM z16 está específicamente diseñado para ayudar a proteger contra las amenazas del futuro cercano que podrían utilizarse para desencriptar las tecnologías de cifrado actuales.
Las innovaciones de IBM, incluido el IBM z16, han formado la columna vertebral tecnológica de la economía global durante décadas. El mainframe moderno de IBM es central para los entornos de nube híbrida, valorado como una plataforma altamente segura para ejecutar las cargas de trabajo más críticas por dos tercios de Fortune 100 -45 de los 50 principales bancos del mundo, 8 de las 10 principales aseguradoras, 7 de los 10 principales retailers y 8 de las 10 principales empresas de telecomunicaciones-. Por ejemplo, según un estudio reciente de Celent para IBM “Operacionalización de la prevención del fraude en IBM Z”, IBM zSystems ejecuta el 70% de las transacciones globales, sobre una base de valor[1].
“IBM es el estándar de referencia para el procesamiento de transacciones de alta seguridad. Ahora, con las innovaciones de IBM z16, nuestros clientes pueden aumentar la velocidad de decisión con la inferencia justo donde residen sus datos de misión crítica”, dijo Ric Lewis, SVP, IBM Systems. “Esto abre enormes oportunidades para cambiar el juego en sus respectivas industrias, para que puedan posicionarse para ofrecer mejores experiencias al cliente y resultados comerciales más poderosos.”
IA empresarial en tiempo real para revolucionar las industrias con nuevos casos de uso y aplicaciones
Las instituciones financieras de todo el mundo luchan con los impactos de las actividades fraudulentas en sus ingresos y en las interacciones de los consumidores. Según un nuevo estudio de IBM y Morning Consult “2022 IBM Global Financial Fraud Impact Report”, el fraude con tarjeta de crédito es el tipo más común entre los consumidores de los siete países encuestados. Además, los participantes creen que los bancos y las redes de pago deberían ser las más responsables de prevenir el fraude. Pero la ejecución de modelos de deep learning a escala en tiempo real no ha sido posible debido a problemas de latencia, lo que significa que los modelos de detecciones de fraude sólo se ejecutan en menos del 10% de las transacciones de alto volumen, entonces una cantidad significativa de fraude no se detecta. IBM z16 reúne de forma única la inferencia de IA, a través de su IBM Telum, con el procesamiento de transacciones de gran volumen altamente seguro y confiable por el que la empresa es reconocida.
Por primera vez, los bancos pueden analizar el fraude durante las transacciones a gran escala: IBM z16 puede procesar 300 mil millones de operaciones de inferencia por día con sólo un milisegundo de latencia[2]. Para los consumidores, esto significaría reducir el tiempo y la energía necesarios para manejar transacciones fraudulentas en su tarjeta de crédito. Tanto para los comerciantes como para los emisores
[1] “Operationalizing Fraud Prevention on IBM Z,” an IBM commissioned report by Celent. March 2022.
[2] Disclaimer: el resultado del rendimiento se extrapola de las pruebas internas de IBM que ejecutan operaciones de inferencia local en un z16 LPAR con 48 IFL y 128 GB de memoria en Ubuntu 20.04 (SMT mode) utilizando un modelo sintético de detección de fraude con tarjeta de crédito (https://github.com/IBM%20/ai-on-z-fraud-detection) explotando el Acelerador Integrado para IA. El punto de referencia se ejecutaba con 8 subprocesos paralelos, cada uno anclado al primer núcleo de un chip diferente. El lscpucommand se usó para identificar la topología de chip de núcleo. Se utilizó un tamaño de lote de 128 operaciones de inferencia. Los resultados pueden variar.