Resultados de la búsqueda

Posts Tagged ‘ibm’

Científicos de IBM alcanzan logros clave para construir la primera computadora cuántica práctica

mayo 7th, 2015 | Posted by Sebastian Orellana

Dos hitos permiten superar obstáculos en el camino hacia un sistema que funcione.

Los científicos de IBM (NYSE: IBM) revelaron hoy dos avances críticos con miras a la creación de una computadora cuántica práctica. Por primera vez, mostraron la capacidad de detectar y medir ambos tipos de errores cuánticos simultáneamente, además de demostrar un nuevo diseño de circuito de bit cuántico, de formato cuadrado, que es la única arquitectura física cuya escala podría aumentarse con éxito a mayores dimensiones.

Mientras que la Ley de Moore pierde fuerza, la computación cuántica estará entre las invenciones que podrían inaugurar una nueva era de la innovación a lo largo de los sectores de industria más diversos. Las computadoras cuánticas prometen abrir nuevas capacidades en los campos de optimización y simulación que simplemente no serían posibles con las computadoras actuales. Si se pudiera construir una computadora cuántica con solo 50 bits cuánticos (qubits), ninguna combinación de las supercomputadoras de la lista actual TOP500 lograría superarla en desempeño.

Los descubrimientos de IBM, descritos en la edición 29 de la publicación Nature Communications, muestran por primera vez la capacidad de detectar y medir los dos tipos de errores cuánticos (bit-flip o inversión de bit y phase-flip o inversión de fase) que ocurrirán en cualquier computadora cuántica real. Hasta ahora, solo era posible abordar un tipo de error cuántico o el otro, pero nunca ambos al mismo tiempo. Este es un paso necesario en el avance hacia la corrección de errores cuánticos, que constituye un requisito crítico para construir una computadora cuántica a gran escala que sea práctica y confiable.

El novedoso y complejo circuito de bit cuántico de IBM, basado sobre un entramado cuadrado de cuatro qubits superconductores en un chip que es de aproximadamente un cuarto de pulgada, permite que se detecten ambos tipos de errores cuánticos al mismo tiempo. Al optar por un diseño de forma cuadrada en lugar de una disposición lineal – lo cual previene la detección de ambos tipos de errores cuánticos en simultáneo – el diseño de IBM muestra el mejor potencial para aumentar la escala, al agregar más qubits para alcanzar un sistema cuántico que funcione.

“La computación cuántica podría ser potencialmente transformadora, lo que nos permite resolver problemas que son imposibles o muy difícil de resolver hoy”, dijo Arvind Krishna, vicepresidente y director de IBM Research. “Mientras que las computadoras cuánticas tradicionalmente se han explorado para la criptografía, un área que encontramos muy convincente es el potencial de los sistemas cuánticos prácticos para resolver problemas de la física y la química cuántica que son irresolutos hoy. Esto podría tener un enorme potencial en los materiales o el diseño de fármacos, abriendo un nuevo campo de aplicaciones”.

Por ejemplo, en física y química, la computación cuántica podría permitir a los científicos diseñar nuevos materiales y compuestos farmacológicos sin tener que realizar costosos experimentos de prueba y error en el laboratorio, lo cual aceleraría sustancialmente la velocidad y el ritmo de la innovación en muchos sectores de la industria.

Para un mundo consumido por Big Data, las computadoras cuánticas podrían realizar rápidamente la clasificación y curaduría de cantidades cada vez mayores de bases de datos así como almacenes masivos de datos diversos y no estructurados. Ello podría transformar la manera en que las personas toman decisiones y el modo en que los investigadores en una serie de sectores realizan descubrimientos críticos.

Uno de los grandes retos para científicos que buscan aprovechar el poder de la computación cuántica consiste en controlar o eliminar la decoherencia cuántica: la creación de errores en cálculos causada por la interferencia de factores tales como calor, radiación electromagnética y defectos de materiales. Los errores son especialmente agudos en máquinas cuánticas, ya que la información cuántica es muy frágil.

“Hasta ahora, los investigadores habían podido detectar los errores cuánticos bit-flip o phase-flip, pero nunca ambos juntos. Los trabajos previos en esta área, que utilizan disposiciones lineales, solo estudiaban los errores bit-flip, que ofrecían información incompleta sobre el estado cuántico de un sistema y resultan inadecuados para una computadora cuántica,” señaló Jay Gambetta, un gerente del IBM Quantum Computing Group. “Nuestros resultados de cuatro qubits nos permiten superar este obstáculo, al detectar ambos tipos de errores cuánticos y habilitar una escalabilidad a sistemas mayores, ya que los qubits se disponen en un entramado cuadrado, y no en forma lineal.”

El trabajo realizado en IBM fue parcialmente financiado por el programa de operaciones multi-qubit coherente IARPA (Intelligence Advanced Research Projects Activity).

Detección de errores cuánticos

La unidad más básica de información que una computadora típica puede comprender es un bit. Del mismo modo en que un haz de luz puede encenderse o apagarse, un bit puede tener uno solo de dos valores: “1″ o “0″. Sin embargo, un bit cuántico (qubit) puede tener un valor de 1 o 0 así como ambos valores al mismo tiempo, lo cual se describe como superposición, y se denota simplemente como “0+1”. El signo de esta superposición es importante porque ambos estados, 0 y 1, tienen una relación de fase entre sí. Esta propiedad de superposición es lo que permite que las computadoras cuánticas elijan la solución correcta entre millones de posibilidades, con una velocidad muy superior a una computadora convencional.

En ese estado de superposición pueden ocurrir dos tipos de error: uno es un error bit-flip, que simplemente cambia un 0 por un 1 y viceversa. Esto es similar a los errores de inversión de bits clásicos, y trabajos anteriores han demostrado cómo detectar estos errores en qubits. Sin embargo, esto no basta para la corrección de errores cuánticos porque también pueden estar presentes los errores phase-flip, que cambian el signo de la relación de fase entre 0 y 1 en un estado de superposición. Ambos tipos de error deben ser detectados para que la corrección de errores cuánticos funcione correctamente.

La información cuántica es muy frágil, porque todas las tecnologías de qubit existentes pierden su información cuando interactúan con la materia y la radiación electromagnética. Los teóricos encontraron formas de preservar la información durante mucho más tiempo, al extender la información entre muchos qubits físicos. El “código de superficie” es el nombre técnico de un esquema específico de corrección de errores, que distribuye la información cuántica entre muchos qubits. Permite que solo las interacciones entre vecinos más cercanos codifiquen un qubit lógico, dotándolo de la estabilidad suficiente como para realizar operaciones sin errores.

El equipo de IBM Research usó una variedad de técnicas para medir los estados de dos qubits de síndrome (medición) independiente, cada uno de los cuales revela un aspecto de la información cuántica almacenada en dos qubits adicionales (llamados qubits de datos, o código). Específicamente, un qubit de síndrome reveló si ocurrió un error bit-flip debido a alguno de los dos qubits de código, mientras que el otro qubit de síndrome reveló si ocurrió un error phase-flip. Determinar la información cuántica conjunta en los qubits de código es un paso esencial para la corrección de errores cuánticos porque la medición directa de los códigos qubits permite destruir la información contenida en ellos.

Como estos qubits pueden ser diseñados y fabricados usando técnicas de fabricación de silicio estándares, IBM anticipa que una vez que un puñado de qubits superconductores pueda fabricarse en forma confiable y repetible, y ser controlado con bajas tasas de error, no habrá ningún obstáculo fundamental para demostrar la corrección de errores en entramados de qubits mayores.

Estos resultados ponen de relieve el largo compromiso de IBM con el procesamiento de información cuántica, que data desde hace más de 30 años, cuando IBM participó en el primer taller en este campo, en la Física de Información en 1981.

IBM pone las tecnologías analíticas y cloud del revolucionario sistema Watson al alcance de las pymes

octubre 1st, 2014 | Posted by Sebastian Orellana

La Compañía presenta ocho nuevos sistemas POWER y nuevas soluciones de almacenamiento basados en el último procesador POWER7+

logo-ibm

IBM (NYSE: IBM) ha dado un paso en su estrategia para poner al alcance de cualquier empresa, independientemente de su tamaño, las últimas tecnologías en materia de gestión de grandes volúmenes de datos (Big Data) y cloud computing. Para ello, ha anunciado el lanzamiento de ocho sistemas POWER y nuevas soluciones de almacenamiento que permitirán a las pymes disfrutar de las mismas tecnologías que constituyen la base del revolucionario sistema Watson.

Se trata de nuevos sistemas de gama de entrada y media, basados en el último procesador POWER7+ y que han sido específicamente diseñados para la gestión de datos, el almacenamiento de información en entornos cloud y la reducción de costes.

Muchas pequeñas y medianas empresas tienen dificultades para adoptar soluciones de Big Data y cloud privada debido a su falta de conocimiento y experiencia a la hora de diseñar y mantener estos sistemas de hardware. Los nuevos POWER resuelven estos problemas, ya que no requieren habilidades específicas y ofrecen los últimos avances en virtualización y automatización para acelerar la creación de nubes privadas e híbridas.

Nuevos sistemas POWER adaptados a Big Data y cloud
Una de las principales novedades del anuncio es la incorporación de la tecnología POWER7+ (antes sólo disponible en determinados sistemas corporativos) en sistemas de nivel de entrada y gama media.

Estos procesadores POWER7+ pueden ser una plataforma más adecuada para responder a las necesidades de Big Data y cloud que el hardware x86, ya que la memoria y la virtualización –elementos clave para las nuevas cargas de trabajo– están integradas en el procesador. Los nuevos sistemas están también optimizados para el software de analítica empresarial y predictiva de IBM, incluyendo Cognos y SPSS.

En concreto, IBM lanza ocho sistemas POWER para pymes y empresas de mercados emergentes, entre los que se incluyen los POWER 710, 720, 730 y 740 de la familia POWER Express; y los sistemas POWER 750 y 760 para medianas empresas, excelentes plataformas de consolidación que centralizan las cargas de trabajo analíticas y de entornos cloud.

La Compañía también ha presentado dos nuevos sistemas PowerLinux (7R1 y 7R2), optimizados para las soluciones de Big Data InfoSphere BigInsights e InfoSphere Streams. De forma opcional, Webphere Mobile y Web Applications en PowerLinux se incluyen para acelerar el desarrollo de aplicaciones para iPhone, Android y BlackBerry.

Facilitar el almacenamiento en la nube
A medida que el Big Data sigue creciendo, son cada vez más las organizaciones que acuden a la virtualización y los entornos cloud para ser más eficientes, reducir costes y acceder con mayor rapidez a la necesaria capacidad de almacenamiento. Para cubrir estas necesidades, IBM presenta nuevos sistemas y soluciones de almacenamiento SmartCloud:

• IBM SmartCloud Storage Access: IBM presenta, por primera vez, un software que permite a las empresas crear nubes privadas de almacenamiento seguras y a los usuarios almacenar información en la nube interna de la compañía. Integra un portal de autoservicio en Internet donde los usuarios pueden crear una cuenta, fijar la cantidad de almacenamiento que necesitan y comenzar a cargar archivos a través de la nube, todo ello a través de unos pocos clics de ratón y sin necesidad de un administrador de TI.

• La solución IBM XIV Storage System ha sido actualizada con un nuevo diseño para Big Data que soporta hasta 12 puertos 10GB Ethernet (o 22 puertos 1GB Ethernet) y 6TB de caché de estado sólido, que permiten quintuplicar el rendimiento de las cargas de trabajo de bases de datos frente a modelos anteriores. La incorporación de fuentes de alimentación avanzadas reduce el consumo de energía a plena carga hasta un 16% respecto a modelos anteriores, ahorrando costes en energía y refrigeración.

• El nuevo Real-Time Compression Appliance™ STN7800, v4.1 soporta complejos entornos de gran tamaño con reducidos costes de infraestructura. Se basa en la tecnología del servidor System x, ofreciendo cinco veces más compresión en tiempo real y licencias de software ilimitadas por dispositivo (más de 50TBs). Soporta conectividad óptica de 10GbE, en cobre de 1GbE o mixta de 10GbE y 1GbE.

Ventajas de la financiación de IBM
IBM Global Financing ayuda a los clientes a adquirir soluciones tecnológicas de una manera sencilla, con pagos asequibles. Ofrece préstamos a 12 meses sin intereses para IBM Power y almacenamiento IBM, ahora con 3 meses de carencia además de arrendamientos a Valor de Mercado que le ayudan a reducir los costes de la infraestructura tecnológica.

AS/400… Old?

abril 9th, 2014 | Posted by Matias Hapanowicz

In the era when 75 percent of the systems are developed in Java, PHP or. NET, hundreds of companies still base their core infrastructure on IBM i (or as the old litter we call it… AS/400).

These companies are mostly financial institutions and manufacturing that evolved from the ’70s, some migrating from the old IBM S/34, S/36, S/38 and then commiting to the great promise of late ’80s IBM AS/400 (Application System 400). What was so attractive for companies to enter in the 400 world? It was very simple: IBM promised that everything that worked on S/36 and S/38, will still work on AS/400, but more efficiently. This means that moving to this platform would incur minimal cost from the point of view of development for companies that decide to migrate, and at the same time, remain under the “Standard” of IBM. At the same time, Unix was still an operating system more oriented to the academic world than business, and Intel-based servers were really in its infancy, so the “Mid Range” market (which did not justify the cost of a mainframe and at the same time did not have enough with what low-end computers offered ) was seduced very convincingly to become an AS/400 user.

This was intended to be a success story, had it not been for the late ’90s began a technological revolution that IBM had not planned: Microsoft began to settle as a possible competitor with the release of Windows NT Server to companies.

Let us agree that IBM was so blinded to their business that missed opportunities which, in the opinion of several experts, could have stopped the progress of their competitors. An IBM AS/400, while not as expensive as a mainframe, was more expensive (both hardware and software) than their counterparts at Intel. Students and independent engineers could not afford a piece of hardware like this, while IBM did not generate sufficient agreements with universities so that their own academies could provide these computers to “hungry” technology researchers. But hey… they could pay Intel machines.

Miss this opportunity, was a heavy blow to IBM and its Platform. Scholars became professionals and their companies employed technologies different to AS/400. The increased demand for these technologies introduced a lot of capital to the companies that produced them, and became direct competitors: growth of intercommunication between the platforms, development of open standards, Internet … all these points were developed without having AS/400 into account. By the time IBM realized this, his popularity was already very low. Worse still, they didn’t really made ​​an effort to integrate these technologies until mid 2000.

as400old

For more IBM tried to force changes in its platform (enhancements to RPG programming language, integrated environments through PASE, including name changes, to move from AS/400 to iSeries, then System i5, and now IBM i), the popular view remained tied to “AS/400”.

Today we often listen terms like SOA, XML, Agile Methodologies, Web 2.0 … but those terms are mostly specialists away from the IBM i. While systems require faster changes every time, integration with other platforms and services, and a brand new Web front end, the AS/400 was framed in the collective unconscious as a “Green Screen” platform. Increasingly, managers of companies with IBM i think “Why can my competitor have a sales system so dynamic, web screens accessible from their cell phones, and I only have to offer to my business a Green Screen?”. Others may think “Why does my computer department take so long to build this or that report, and when they made it and I ask for a change they say it would take at least a week to do it?”. Never heard such comments? Well, the answer (no matter how crude it seems) can be summarized in these points:

• While the “open” systems (based on Java,. NET, PHP, etc …) were released since a relatively short time (no more than 10 or 15 years), it is common for systems that are running today in an AS/400 that they have great pieces of code written over 30 years ago… when the requirements and vision of what comprised a computer system were completely different from today.

• IBM, with all the possibilities of backward compatibility, and its separation from the academic world, indirectly make most specialists in the platform reluctant to changes and new technologies (“If it works fairly well … for why touch it? “).

• There is also a matter of age: According surveys of AS/400 professionals (http://www.teknodatips.com.ar/encuestas/18-as400/156-encuestaedadas400.html), 50% of the current iSeries professionals will be retired within 10 years, so they are people who are more concerned with how to “round” their last years of profession, than to learn new technologies.

SH%$@T! This means that the picture is so unfavorable that I should leave the platform? NO! These are just some of the facts. Let’s see the other side of the coin: What is positive with AS/400?

• While most of the developments on open platforms are trying to standardize their databases, AS/400 platform was the first operating system integrated into a comprehensive relational database (DB2/400).

• While most of the Open Systems integration is being performed in Middlewares (Message Queues, WebServices, etc.). AS/400 was the first, also from its operating system, to manage the concept of Data Queues, DDM, and ICF, which is the basis of what later evolved into standards such as JMS, Web Services, and RPC.

• While the current system infrastructure is standardizing concepts such as Virtualization, Virtual Machines, and Containers, AS/400 was the first to integrate LPARs, the Machine Interface and Subsystems, also within its the Operating System.

• The cake cherry: Most of the Core Software of companies that currently have IBM i, is in the IBM i.

So if AS/400 integrated so many years the origins of these concepts, which are the basis of modern software architectures … obviously it can’t be all lost.

The advice I most often give to my clients is make the most with what they now have: If human resources are AS/400 aged over 40 years, and they know the Core system by several years of ongoing maintenance, it is really unproductive to try to “modernize” them… but they have a huge “Know How” of how business operates, and which things are necessary to transform their systems. And above all, they know the user and their needs very well. Do not try to transform them, take them as functional analysts because they are the best resources you have to get this task done.

And what to do with the new coming requirements, and with the managers requests? The secret is integration. The “i” of the new names of the platform (iSeries, System i5, IBM i), stands for integration. The golden opportunity offered by the IBM i today that can be fully exploited is to integrate the technology thank “always worked well”, with agile methodologies that get faster results and implementation.

I’ll never say this is easy … but I can assure you from personal experience that this is the most effective way. The purpose of this blog is to give an overview of the steps to enter the to the XXI century maelstrom, without getting rid of our “AS/400”.

Client Acces

If you have no data access, contact your advisor account.