14 de noviembre de 2016

Las políticas keynesianas y el nacimiento del Estado del bienestar (I)

El primer capítulo del libro ¿es sostenible el estado del bienestar?, Las políticas keynesianas y el nacimiento del Estado del bienestar, vamos a subdividirlo en dos partes: I y II. En la primera parte, hablaremos sobre los estudios económicos del Bienestar y, en la segunda parte, sobre el desarrollo y la madurez del Estado del bienestar. 

La doctrina económica que inspira al Estado de bienestar es el keynesianismo de John Maynard Keynes. Su tesis principal es que el libre mercado es incapaz de garantizar el pleno empleo, defendiendo la necesidad de regular el capitalismo desde la política del Estado. El keynesianismo surgió como reacción a la Gran Depresión. Pero, no fue, hasta después de la Segunda Guerra Mundial, cuando se generalizó la convicción de que el Estado debía proporcionar a sus ciudadanos protección contra las adversidades económicas, lo que condujo a la creación entre 1945 y 1948, del primer Estado del bienestar en el Reino Unido.

Pero, ¿cuando y cómo surgió la necesidad de estudiar el Estado de bienestar? Los economistas fueron los protagonistas iniciales del estudio tanto del bienestar individual como del bienestar social. Se estableció un debate entre aquellos economistas que confiaban en que la libre iniciativa y el mercado resolverían por sí mismo el bienestar social, y los socialistas, que desconfiaban de la propiedad privada y de los capitalistas. En paralelo, a este debate, durante el siglo XIX, en el ámbito de la ciencia económica, coexistieron dos períodos: el clásico que arranca con Adam Smith hasta Karl Marx y John Stuart Mill y el neoclásico con las figuras de León Walras, William S. Jevons y Alfred Marshall. Este último período, la llamada escuela neoclásica de economía, surge apoyada por el positivismo- epistemología- y el utilitarismo- ética-. Pretendían incorporar la economía al positivismo y de esta forma explicar al ser humano y sus acciones así como sus consecuencias e interacciones al modo como se hacía en las ciencias naturales. Esta pretensión de transformar la economía, como si fuera una ciencia natural, tiene una gran importancia para entender cómo se ha concebido y estudiado el bienestar desde la economía. Por su parte, el utilitarismo cree que el objetivo último de las acciones humanas es aumentar el bienestar y evitar el dolor y el sufrimiento. Las acciones humanas se orientan hacia una mayor satisfacción personal o "utilidad", de ahí, el nombre de utilitarismo. Este modelo de ser humano contenía un "problema técnico": ¿cómo concebir un modelo de ser humano que puede ser expresado mediante una ecuación matemática? El neoclasicismo creó la figura del "homo economicus". ¿En qué consistía el homo economicus? Podríamos definirlo como a una persona que, teniendo como objetivo único alcanzar la mayor utilidad posible, es capaz de determinar cuánta utilidad le proporciona la combinación entre bienes y servicios que tiene a su alcance y decidir cuál es la mejor combinación entre sí. El homo economicus fue utilizado por los economistas para realizar experimentos en los que un homo economicus era colocado ante diferentes alternativas y escoger aquella situación que proporcionará mayor utilidad, o sea, mayor bienestar. Los economistas neoclásicos concluyeron que el bienestar era el resultado de la utilidad del consumo de bienes y servicios. A partir de ahí, se podía establecer diferentes políticas en función de la utilidad- es decir, del mayor bienestar- que aportan.  La escuela neoclásica concluyó que el mercado conducía a situaciones de equilibrio en las que el bienestar era el máximo posible. Tanto esa tendencia del mercado al equilibrio como la reducción del comportamiento al hedonismo fue criticado por el economista John Maynard Keynes.

John Maynard Keynes, durante la Gran Guerra y los años 20, observó que existía rigideces entre las instituciones y los diferentes actores económicos- inversores, empresarios, trabajadores- a la hora de que los mercados alcancen el equilibrio entre la oferta y la demanda. La constatación de estos hechos hizó que Keynes propusiera un control de ciertas actividades económicas de manera que fuera compatible con las libertades de las sociedades democráticas. Para Keynes, el desempeño correcto de la economía era aquél que garantizaba el pleno empleo. Durante los años 30, dos cuestiones fundamentales fueron: cómo reducir el desempleo y cómo financiar los seguros de desempleo. Junto a estas preocupaciones, Keynes abandonó el utilitarismo como medio para explicar el consumo. Creía que además del hedonismo también el error, la falta de previsión, la generosidad o la extravagancia estaban detrás del consumo. Y, por tanto, la máxima utilitaria no podía explicar todo el consumo.

Como consecuencia del crash de 1929, el PIB de EEUU se redujo más de un 44%. En 1933, se alcanzó la cifra del 25% de desempleo sólo en EEUU. La administración de Hoover no adoptó ninguna medida extraordinaria. No es hasta la presidencia de Roosevelt cuando se adopta el New Deal que es considerado como uno de los hitos más importantes de la historia del Estado del bienestar. Con su libro, la teoría general, John Maynard Keynes quiso dar una respuesta a las crisis recurrentes del sistema capitalista para las cuales la escuela neoclásica no parecía tener solución. En su análisis, Keynes otorga a los consumidores y a los empresarios el peso de la actividad económica. Para Keynes, la causa principal de los fallos del sistema de libre mercado son la toma de decisiones que se basan en el conocimiento del pasado. Por este motivo, el resultado de nuestras acciones es siempre incierto. Los consumidores eligen qué parte de sus ingresos dedican a consumir y qué parte no. Mientras, que la parte del consumo está determinado por el nivel de renta y las preferencias, la segunda, la parte que no se consume, plantea un dilema. El consumidor tiene dos opciones: ahorrar o mantenerlo "ocioso" en su bolsillo. El ahorro privado consiste en otorgar préstamos a algún empresario a cambio de un interés. El tipo de interés sería la oferta que se le hace al consumidor para que se lo preste a un empresario para que éste asuma un riesgo con la inversión. La motivación de los empresarios para invertir se basa en analizar el coste de emprender una actividad y las expectativas de ganancias futuros procedentes de la inversión.

Sin embargo, para Keynes el comportamiento económico no puede explicarse únicamente a través de la racionalidad sino que hay que contrapónerla con aspectos más irracionales a la hora de tomar decisiones tanto económicas como no económicas. Además, estos componentes no racionales se "contagiaban" rápidamente de un individuo a otro y tendían a reforzarse. En situaciones de incertidumbre o inestabilidad, el comportamiento tanto de consumidores como de empresarios es económicamente ineficiente. El "atesoramiento" del dinero por parte de los consumidores es debido a la incertidumbre que provoca la demanda de bienes sea insuficiente para cubrir la oferta. Por su parte, los empresarios pueden reducir la inversión en capital y mano de obra más allá de lo deseable. El resultado es una demanda insuficiente de bienes, capital y mano de obra. Esta debilidad de la demanda agregada provoca una reducción de la producción total de bienes y servicios. Al ser, el resultado de decisiones libres entre consumidores y empresarios, suele perpetuarse dicho desequilibrio entre la oferta y la demanda, en lugar de, como sostiene la escuela neoclásica, alcanzar en algún momento el equilibrio. Para Keynes, el principal problema del capitalismo liberal es, que un contexto de incertidumbre, se deje al mercado actuar libremente respecto a las decisiones de inversión. Keynes apuesta porque sea el Estado quien tome las decisiones de inversión ya que está en mejores condiciones para asumir y gestionar el riesgo en beneficio del interés público. Estas inversiones productivas del Estado permitirían cerrar la brecha entre la demanda y la oferta agregadas, asegurando el pleno empleo en cada coyuntura económica.

Keynes también crítica la política monetaria expansiva en un entorno de bajos tipos de interés. Al imprimir más dinero y ponerlo en manos de la gente, aumentará la demanda de bienes en la economía. Lo que provocará un aumento de la inflación. En consecuencia, si aumenta la cantidad de bienes, disminuye su valor. El dinero también es un bien. Y como tal, disminuye de valor lo que equivale a decir que con la misma cantidad se compran ahora menos cosas, un efecto equivalente a una subida generalizada de los precios. Keynes contraargumentó que el beneficio de un aumento de la demanda, es decir, la reducción del desempleo, era mayor que el perjuicio de una mayor inflación, tanto una medida como la otra, tenían como finalidad estabilizar la demanda en las diferentes coyunturas económicas del capitalismo liberal. Se aseguraría el crecimiento económico, y así, la mejora de las condiciones de vida y el bienestar de los ciudadanos. 

8 de noviembre de 2016

Introducción: concepto, crisis y retos del Estados del bienestar.

La Gran Recesión de 2008 fue un punto de inflexión al iniciarse un proceso de cuestionamiento de la viabilidad financiera de nuestro Estado de bienestar. No obstante, no era la primera vez que surgía este debate. Ya, en los años 70, con el aumento exponencial de la población mundial y las sucesivas crisis del petróleo, pusieron en aprieto al Estado del bienestar. Junto a estos fenómenos, la aparición de la contrareforma neoliberal liderada por Ronald Reagan y Margaret Thatcher, que sostenían que los Estados de bienestar no eran capaces de generar la riqueza suficiente para financiar sus necesidades. Sin embargo, ninguno de estos malos augurios se han cumplido. El gasto social del PIB se ha mantenido estable en los países desarrollados. Ahora bien, no debemos bajar la guardia. Los retos del Estado de bienestar en el siglo XXI son muy distinto a los de la década de 1970. El actual Estado del bienestar tiene diferentes retos: de orden económico- mayor envejecimiento y bajo índice de natalidad-, de orden sociológico- cambios en el modelo de familia-, de orden supranacional- la globalización- y el fenómeno de la inmigración. Finalmente, hay que dar respuesta a la tendencia del Estado del bienestar a crecer cada vez más.

Pero, ¿a qué nos referimos cuando hablamos de Estado del bienestar? Es difícil de encontrar una definición precisa. ¿Por qué? Por la sencilla razón, que no existe un único modelo de Estado de bienestar. No obstante, podríamos definirlo como un sistema por el que la administración pública, independientemente de quien gobierne, garantiza a sus ciudadanos un conjunto de servicios sociales básicos- sanidad, educación, pensiones, desempleo, minusvalía o acceso a la vivienda- para mejorar sus condiciones de vida y promover la igualdad de oportunidades. El mercado por sí solo no es capaz de ofrecer estos servicios básicos a un coste asumible. Estas limitaciones del mercado siempre han estado en el centro de la batalla entre los defensores y los detractores de la intervención del Estado en la economía. Dentro de los detractores, la crítica está en el terreno de los valores. La intervención del Estado es percibida como una invasión en el ámbito de decisión individual y acusa al Estado del bienestar de promover relaciones de dependencia de los ciudadanos con el Estado. El Estado de bienestar debe ser evaluado en función de su eficiencia y si cumple con sus objetivos.

El Estado del bienestar no siempre ha existido. El inicio así como su consolidación ha estado lleno de luchas, crisis y conquistas. No podemos hablar de Estado de bienestar hasta después de la Segunda Guerra Mundial en 1945, cuando se implantó en el Reino Unido, con el Gobierno laborista de Clement Attlee, el primer sistema de seguridad social y el primer sistema de sanidad pública y universal. Se estableció un pacto social que perseguía la igualdad de derechos y deberes de toda la ciudadanía y el reparto más equitativo de la riqueza generada en el Reino Unido. Tras éste, los diferentes países occidentales han adoptado el Estado del bienestar a sus particularidades culturales y sociales. Han intentado incidir sobre todo en 4 aspectos básicos: el paro, la jubilación, la desigualdad social y la pobreza, llevando al Estado a la necesidad de regular la economía.

A pesar de su éxito, el Estado de bienestar actual debe dar respuesta a los retos que le depara el futuro, haciendo necesario su reinvención. Una primera amenaza es la de su sostenibilidad por motivos demográficos. Una segunda amenaza es la globalización que provoca una competitividad creciente entre países. Una tercera amenaza es la crisis de 2007 y la crisis de la deuda soberana de la zona Euro que está castigando duramente el Estado de bienestar. Se trata de retos formidables que demandan soluciones imaginativas y audaces porque la sostenibilidad del Estado del bienestar depende de la cantidad de recursos que estemos dispuestos a destinarle y su viabilidad dependerá de, como ciudadanos, en qué tipo de sociedad queremos vivir. 

18 de octubre de 2016

Introducción a ¿Es sostenible el estado del bienestar?

El libro ¿es sostenible el estado del bienestar? nos introduce en un tema candente: el desarrollo, mantenimiento y crisis del Estado de bienestar en las sociedades occidentales. Cómo, cuando y por qué surge el primer Estado de bienestar en el Reino Unido después de la Segunda Guerra Mundial; sus antecedentes históricos en el siglo XIX e inicios del siglo XX y el precedente del New Deal de Roosevelt en los años 30 en Estados Unidos. Es, en ese contexto histórico, social, económico y político, que emerge el keneysianismo como respuesta a los estragos de la Gran Depresión y la II Guerra Mundial. Será el economista británico, John Maynard Keynes, quien establecerá las bases teóricas del Estado de bienestar. Las políticas keynesianas se implementarán y desarrollarán a lo largo de más de tres décadas en los países occidentales. Se caracterizaron por apostar por políticas intervencionistas por parte del Estado en materia económica, financiera y social en detrimento del libre mercado a la hora de ofrecer bienes y servicios básicos- empleo, vivienda, educación, sanidad...- a la población. Durante 30 años, las políticas keynesianas fueron un éxito en el Reino Unido y en Estados Unidos, permitiendo el despegue, desarrollo y mantenimiento del Estado de bienestar. En paralelo, a este proceso de inicio y consolidación del Estado de Bienestar, se inicia una reacción liberal contra la intervención del Estado en la economía. Los defensores de la libertad de mercado, apoyados por las tesis de Milton Friedman y la Escuela de Chicago, preconizaron un paulatino abandono de los postulados keynesianos, y, por extensión, del Estado del bienestar. Pero, no será, hasta los años 80, cuando definitivamente estas ideas (neo)liberales harán fortuna con los gobiernos de Margaret Thatcher y Ronald Reagan en Reino Unido y Estados Unidos, respectivamente. El ascenso de la doctrina neoliberal cuestionará tanto la legitimidad como la sostenibilidad del Estado del bienestar y apostará por su desmantelamiento progresivo, substituyéndolo por una creciente mercantilización de servicios básicos como la sanidad o la educación, y, por la privatización de los sectores económicos estratégicos de los países desarrollados, y posteriormente, del resto del mundo.

En segundo lugar, desarrolla los distintos modelos de Estado de bienestar existentes en la mayoría de los países occidentales. Podemos hablar y diferenciar claramente tres grandes modelos de Estado de bienestar: el modelo socialdemócrata de los países nórdicos; el modelo liberal de los países anglosajones y el modelo conservador de países como Alemania o Francia. Se expone tanto sus puntos fuertes como sus puntos débiles así como sus aportaciones y limitaciones que han reavivado el debate sobre la sostenibilidad fiscal de estos modelos de Estado de bienestar a medio y a largo plazo por motivos demográficos y por la irrupción de la globalización.

14 de octubre de 2016

Descripción del libro ¿Es sostenible el estado del bienestar?

El libro ¿es sostenible el estado de bienestar? del economista Óscar Vara Crespo contiene 141 páginas. Está editado en el año 2016 por RBA Coleccionables dentro de la colección titulada Los retos de la economía. Es el primer número de la colección. El sumario del libro contiene: una introducción y 4 capítulos: las políticas keynesianas y el nacimiento del Estado del bienestar; la reacción liberal y las propuestas de reforma; los distintos modelos actuales de Estado de bienestar y Retos globales de futuro. 

13 de octubre de 2016

¿Es sostenible el estado del bienestar?

¿Es sostenible el estado de bienestar? del economista español Óscar Vara Crespo nos invita a adentrarnos en la temática del Estado de bienestar: qué es, cómo y por qué se desarrolla el Estado de bienestar en las sociedades occidentales; quiénes son sus principales teóricos y sus principales detractores o críticos más acérrimos; cuáles son los principales modelos del Estado de bienestar así como cuáles son sus principales retos o amenazas al albur de la actual crisis económica y de su futuro incierto en las próximas décadas del siglo XXI.

16 de mayo de 2016

Documental: La curiosa guerra de Alan Turing.

El Documental, la curiosa guerra de Alan Turing, focaliza la atención sobre aspectos biográficos de  la vida de Alan Turing antes, durante y después de la Segunda Guerra Mundial. Especialmente, en su labor como matemático y sobre todo como criptógrafo en Bletchley Park.



13 de mayo de 2016

Más allá de Alan Turing: sus aportaciones a la inteligencia artificial y a la biología matemática.

A pesar de, su prematura muerte en 1954, Alan Turing ha sido uno de los matemáticos más brillantes e influyentes del siglo XX. Con su trabajo no sólo sentó las bases teóricas de la informática sino también abrió el campo de la inteligencia artificial y el de la biología matemática. Además de su labor como matemático, dejó un número importante de documentos sin concluir con comentarios, anotaciones y observaciones acerca de la "maquinaria inteligente" y de la morfogénesis.

La muerte de Alan Turing no le permitió concluir sus investigaciones en la Universidad de Manchester. Durante su estancia, Alan Turing abordó el diseño de modelos de circuitos neuronales para estudiar el cerebro humano que él denominaba "maquinaria inteligente". En ese mismo año, Belmont Forley y Wesley Clark lograron la simulación, en un ordenador, de una red de 128 neuronas "capaces de reconocer patrones sencillos tras una fase de entrenamiento." Observaron que, si se eliminaba un 10% de las neuronas, la red no perdía su capacidad de reconocimiento de patrones. El modelo de Forley y Clark consistía en neuronas conectadas entre sí al azar, asociando a cada conexión un valor de peso, el resultado era algo parecido a una red Mc Culloch- Pitts. En 1956, dos años después de la muerte de Alan Turing, John McCarthy acuñó el término inteligencia artificial durante una conferencia en la universidad de Barmouth. Un año más tarde, en 1957, Frank Rosenblatt desarrolló el perceptrón. A partir de éste, surgieron otros modelos de redes neuronales artificiales, como, por ejemplo, las redes con retropropagación que permiten reconocer letras, números, imágenes, etc. Actualmente, estas redes de retropropagación están muy presentes en la clasificación del correo electrónico, en el reconocimiento del latido cardíaco del feto para distinguirlo del de la madre, etc. En resumen, ha hecho falta más de medio siglo para que, las ideas acerca de la "maquinaria inteligente" de Alan Turing, formen parte de nuestra vida cotidiana.

En sus últimos años de vida, Alan Turing hizo experimentos pioneros sobre morfogénesis, utilizando los ordenadores de la Universidad de Manchester. La morfogénesis son procesos biológicos que conducen a que un organismo desarrolle una determinada forma.  Alan Turing postuló la existencia de los morfógenos así como la existencia de ciertos procesos físico- químicos y fenómenos como la activación o la inhibición responsables de los procesos de diferenciación celular que estaban detrás de las etapas por las que pasa una célula hasta alcanzar o convertirse en una célula especializada. La idea central era que, las posiciones de las células de un embrión, aún sin diferenciar, contienen morfógenos que controlarían posteriormente su desarrollo. La genialidad de Alan Turing fue la predicción de la existencia de los morfógenos, antes que fueran descubiertos muchos años después.  Fue, en los años 60, cuando Lewis Wolpert redefinió el concepto de morfógeno, introducido por Turing, tras descubrir una proteína con estas características en la mosca del vinagre Drosophila melenogaster. Los morfógenos pueden ser sustancias químicas, desde proteínas hasta vitaminas, que funcionan controlando los genes. En la actualidad, el modelo propuesto por Alan Turing, ha sido demostrado experimentalmente. Sin embargo, algunos sostienen que la morfogénesis ocurre de otra forma, a la postulada por Alan Turing. Las células seguirían un plan maestro por el que las células del embrión se irían especializando, como consecuencia de una serie de transformaciones, cuya explicación estaría en las propiedades mecánicas de esas células. Esta teoría está respaldada por investigadores como Conrad Waddington, Murray Gell- Mann o Brian Goodwin. 


7 de mayo de 2016

El futuro de la computación cuántica.

La computación cuántica amenaza con aumentar el potencial de cálculo de los ordenadores, que el proceso de descifrado por ensayo y error de los algoritmos actuales de encriptación, resultarían un juego de niños en comparación con el de la computación cuántica. Esta revolución se apoya en la mecánica cuántica, cuyo edificio teórico levantaron cuatro personalidades excepcionales: Niels Bohn, Max Planck, Werner Heisenberg y Erwin Schrödinger. La mecánica cuántica es una teoría de la física que sostiene que, en el ámbito macroscópico, rige las leyes de la física clásica, pero que, en el ámbito microscópico, rige la mecánica cuántica y sus paradojas. 

Una de las aportaciones más brillantes a la mecánica cuántica es la de Erwin Schrödinger y su experimento del "gato de Schrödinger". La idea de este experimento era explicar el concepto de superposición de estados. El fenómeno de la superposición de estados sucede cuando una partícula ocupaba, a la vez, más de una posición, o poseía, al mismo tiempo, cantidades distintas de energía. Cuando se introducía un observador para medir alguna de estas variables, la partícula decidía adoptar una posición u otra o poseer una cantidad de energía u otra. Para explicar este fenómeno, Erwin Schrödinger ideó el famoso experimento del "gato de Schrödinger". ¿En qué consistió? "Imagínese un felino del tipo mencionado depositado en una caja sellada y opaca. En el interior de la caja se coloca un recipiente de gas venenoso conectado por un dispositivo a una partícula radiactiva de modo que, si ésta se desintegra, el gas escapa del recipiente y el gato muere envenenado. La partícula en cuestión tiene un 50% de probabilidades de desintegrarse durante un periodo de tiempo determinado." El tiempo se ha cumplido, la pregunta, que nos hacemos, es: ¿Está el gato vivo o muerto? En el lenguaje de la mecánica cuántica equivale a decir: ¿cuál es el estado del sistema caja- gato- mecanismo? Para conocer la respuesta es imprescindible que un observador abra la caja y "mida" el estado del sistema, entonces la partícula decidirá si se ha desintegrado o no, y, por tanto, el sistema "caja- gato- mecanismo" está en una superposición de estados: el gato no está ni vivo ni muerto, sino las dos cosas a la vez.

el gato de Schrödinger

Ahora bien, si llevamos el concepto de superposición de estados a la computación o a la criptografía, ¿cuál sería la relación entre ambos? Hasta 1984, nadie se planteó esta posible relación. Fue el físico David Deutsch que empezó a barajar una idea revolucionaria: ¿cómo podría ser los ordenadores si obedecieran a las leyes de la mecánica cuántica? ¿De qué modo podría la computación cuántica sacar partido de la superposición de estados? A través de estas cuestiones, David Deutsch puedo iniciar sus investigaciones sobre la computación cuántica y puedo, posteriormente, a través de su trabajo probar que era posible teóricamente la construcción de un ordenador cuántico.

El desarrollo de una posible computación cuántica traería consigo el desmoronamiento de la criptografía moderna. Tomemos, por ejemplo, romper una clave RSA, ¿es posible? La respuesta es sí. Si se construyera un ordenador cuántico, y se ejecutará el algoritmo de Shor, la clave RSA se desmoronaría, y con él, el edificio de la criptografía moderna. Peter Shor en 1994 pudo demostrar que se puede romper una clave RSA a través de su algoritmo, que lleva su nombre, el algoritmo de Shor. Mediante este algoritmo pudo demostrar que, si se ejecuta este algoritmo en un ordenador cuántico, se podría descomponer números primos enormes en un tiempo menor que el del ordenador convencional más potente del mercado.

Otro aspecto de la mecánica cuántica es el principio de indeterminación de Weiner Heisenberg. Según el propio Heisenberg no podemos conocer con detalle el presente. Resulta imposible determinar ciertas propiedades de una partícula en un momento dado. Pongamos, un ejemplo, para ilustrar estas palabras: el caso de los fotones, y, muy concretamente, una de sus características más fundamentales: la polarización. Pues bien, el principio de Heisenberg afirma que la única manera de averiguar algo sobre la polarización de un foton es haciéndolo pasar por un filtro o "rendija". En función de, si el foton está polarizado, horizontalmente, verticalmente o diagonalmente, el resultado será distinto. En consecuencia, una vez emitido un foton no es posible saber con certeza cuál era la polarización original. Entonces, ¿qué relación existe entre la polarización de los fotones y la criptografía? En 1984, Charles Bennett y Gilles Brassard idearon un criptosistema cuántico basado en la transmisión de fotones polarizados. La información se transmitía por medio de fotones polarizados que es un canal seguro por medio del cual se puede transmitir una clave única. El resultado de este proceso de polarización, es que tanto el emisor como el receptor comparten una secuencia de unos y ceros generada de forma aleatoria. El criptosistema cuántico ideado por Brassard y Bennett impecable, desde el punto de vista teórico, se pudo llevar a la práctica en 1989, cuando se puso a punto un sistema criptográfico formado por dos ordenadores separados por una distancia de 32 centímetros, uno de los cuales iba a hacer las veces de emisor y, el otro, de receptor. Tras pruebas y ajustes, emisor y receptor pudieron verificar sus claves. La criptografía cuántica era posible. El criptosistema cuántico desarrollado por Brassard y Bennett representa el éxito del secreto sobre la indiscreción, de la criptografía frente al criptoanálisis.

Criptosistema cuántico de Charles Bennett y Gilles Brassard

2 de mayo de 2016

Origen, cronología, ventajas y problemática de la computación cuántica

Ya habíamos mencionado, en una entrada anterior, ¿Qué es la computación?, qué era la computación cuántica. Esbozamos muy superficialmente una definición. Ahora, vamos a desarrollar otros aspectos como son el origen, la cronología, las ventajas y la problemática entorno a la computación cuántica.

El origen de la computación cuántica responde a la necesidad de descubrir nuevas tecnologías que superaran las limitaciones que imponen las propias leyes físicas a la hora de miniaturizar los chips. La imposición de estas limitaciones permitió que surgiera la idea de la computación cuántica en 1981. La idea de la Computación cuántica fue expuesta y desarrollada por Paul Benioff en 1981. Paul Benioff expuso su propia teoría sobre la computación cuántica, aplicando las leyes de la física cuántica a la computación. Según su teoría, "la cinta de la máquina de Turing podría ser reemplazada por una serie de sistemas cuánticos. Es decir, que en lugar de trabajar con voltajes eléctricos pasaría hacerlo con cuántos." En la computación clásica, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, como interviene las leyes de la mecánica cuántica, y, por tanto, una partícula puede estar en superposición: puede ser 0, 1 y puede ser 0 y 1 a la vez. Eso permite que se pueda realizar diferentes operaciones a la vez, según el número de qubits. En definitiva, las ideas esenciales de la computación cuántica surgieron del trabajo de Paul Benioff.

Posteriormente, se han realizado numerosas aportaciones a la computación cuántica. Las más significativas son las de David Deutsh, Dan Simon, Peter Shor y Lov Grover. En 1985, David Deutsh describió, por primera vez, el primer computador cuántico universal, es decir, capaz de simular cualquier otro computador cuántico. De este modo, sugerió que un computador cuántico podría ejecutar diferentes algoritmos cuánticos. En los años 90, se aplicó su teoría a la práctica: aparecieron los primeros algoritmos cuánticos y se realizaron los primeros cálculos cuánticos. En 1993, Dan Simon planteó un problema teórico que demostraba la ventaja del computador cuántico frente al clásico. Comparó el modelo clásico de probabilidad con el modelo cuántico. Sus ideas y observaciones sirvieron como base para el desarrollo de algoritmos como el de Lov Grover en 1996. En ese mismo año, 1993, Charles Benett descubrió el teletransporte cuántico y abrió la posibilidad de desarrollar comunicaciones cuánticas. Entre 1994 y 1995, Peter Shor definió un algoritmo, que lleva su nombre, el algoritmo de Shor, que permitía calcular los factores primos de números, mucho más rápidamente que las computadoras clásicas. Su algoritmo permitía romper muchos de los sistemas criptográficos existentes. En 1996, Lov Grover creó un algoritmo cuántico de tipo probabilístico para la búsqueda de datos conocido como Algoritmo de Grover. Ese algoritmo aceleraba los cálculos factoriales o las simulaciones físicas.

La computación cuántica presenta ventajas respecto a la computación clásica. Aporta enormes ventajas como la aplicación de operaciones masivas en paralelo y la capacidad de aportar nuevas soluciones a problemas que son abarcables desde la computación cuántica por su elevado coste computacional.

Uno de los principales problemas de la computación cuántica es el problema de la decoherencia cuántica que causa la pérdida del carácter unitario- o reversibilidad- de los pasos de un algoritmo cuántico. Otro de los principales problemas de la computación cuántica es la escalabilidad, sobre todo teniendo en cuenta el considerable aumento en qubits necesarios para realizar cálculos cuánticos, que implican la corrección de errores.

Computación cuántica

22 de abril de 2016

Historia de la computación

Vamos a dejar un enlace sobre la historia de la computación que recoge los principales hitos históricos del desarrollo de la computación desde la Edad Media hasta la actualidad. 
En este enlace: https://es.wikipedia.org/wiki/Anexo:Historia_de_la_computaci%C3%B3n podréis encontrar de forma pormenorizada una lista de estos principales hitos dentro de la computación. 

historia de la computación