13 de mayo de 2016

Más allá de Alan Turing: sus aportaciones a la inteligencia artificial y a la biología matemática.

A pesar de, su prematura muerte en 1954, Alan Turing ha sido uno de los matemáticos más brillantes e influyentes del siglo XX. Con su trabajo no sólo sentó las bases teóricas de la informática sino también abrió el campo de la inteligencia artificial y el de la biología matemática. Además de su labor como matemático, dejó un número importante de documentos sin concluir con comentarios, anotaciones y observaciones acerca de la "maquinaria inteligente" y de la morfogénesis.

La muerte de Alan Turing no le permitió concluir sus investigaciones en la Universidad de Manchester. Durante su estancia, Alan Turing abordó el diseño de modelos de circuitos neuronales para estudiar el cerebro humano que él denominaba "maquinaria inteligente". En ese mismo año, Belmont Forley y Wesley Clark lograron la simulación, en un ordenador, de una red de 128 neuronas "capaces de reconocer patrones sencillos tras una fase de entrenamiento." Observaron que, si se eliminaba un 10% de las neuronas, la red no perdía su capacidad de reconocimiento de patrones. El modelo de Forley y Clark consistía en neuronas conectadas entre sí al azar, asociando a cada conexión un valor de peso, el resultado era algo parecido a una red Mc Culloch- Pitts. En 1956, dos años después de la muerte de Alan Turing, John McCarthy acuñó el término inteligencia artificial durante una conferencia en la universidad de Barmouth. Un año más tarde, en 1957, Frank Rosenblatt desarrolló el perceptrón. A partir de éste, surgieron otros modelos de redes neuronales artificiales, como, por ejemplo, las redes con retropropagación que permiten reconocer letras, números, imágenes, etc. Actualmente, estas redes de retropropagación están muy presentes en la clasificación del correo electrónico, en el reconocimiento del latido cardíaco del feto para distinguirlo del de la madre, etc. En resumen, ha hecho falta más de medio siglo para que, las ideas acerca de la "maquinaria inteligente" de Alan Turing, formen parte de nuestra vida cotidiana.

En sus últimos años de vida, Alan Turing hizo experimentos pioneros sobre morfogénesis, utilizando los ordenadores de la Universidad de Manchester. La morfogénesis son procesos biológicos que conducen a que un organismo desarrolle una determinada forma.  Alan Turing postuló la existencia de los morfógenos así como la existencia de ciertos procesos físico- químicos y fenómenos como la activación o la inhibición responsables de los procesos de diferenciación celular que estaban detrás de las etapas por las que pasa una célula hasta alcanzar o convertirse en una célula especializada. La idea central era que, las posiciones de las células de un embrión, aún sin diferenciar, contienen morfógenos que controlarían posteriormente su desarrollo. La genialidad de Alan Turing fue la predicción de la existencia de los morfógenos, antes que fueran descubiertos muchos años después.  Fue, en los años 60, cuando Lewis Wolpert redefinió el concepto de morfógeno, introducido por Turing, tras descubrir una proteína con estas características en la mosca del vinagre Drosophila melenogaster. Los morfógenos pueden ser sustancias químicas, desde proteínas hasta vitaminas, que funcionan controlando los genes. En la actualidad, el modelo propuesto por Alan Turing, ha sido demostrado experimentalmente. Sin embargo, algunos sostienen que la morfogénesis ocurre de otra forma, a la postulada por Alan Turing. Las células seguirían un plan maestro por el que las células del embrión se irían especializando, como consecuencia de una serie de transformaciones, cuya explicación estaría en las propiedades mecánicas de esas células. Esta teoría está respaldada por investigadores como Conrad Waddington, Murray Gell- Mann o Brian Goodwin. 


7 de mayo de 2016

El futuro de la computación cuántica.

La computación cuántica amenaza con aumentar el potencial de cálculo de los ordenadores, que el proceso de descifrado por ensayo y error de los algoritmos actuales de encriptación, resultarían un juego de niños en comparación con el de la computación cuántica. Esta revolución se apoya en la mecánica cuántica, cuyo edificio teórico levantaron cuatro personalidades excepcionales: Niels Bohn, Max Planck, Werner Heisenberg y Erwin Schrödinger. La mecánica cuántica es una teoría de la física que sostiene que, en el ámbito macroscópico, rige las leyes de la física clásica, pero que, en el ámbito microscópico, rige la mecánica cuántica y sus paradojas. 

Una de las aportaciones más brillantes a la mecánica cuántica es la de Erwin Schrödinger y su experimento del "gato de Schrödinger". La idea de este experimento era explicar el concepto de superposición de estados. El fenómeno de la superposición de estados sucede cuando una partícula ocupaba, a la vez, más de una posición, o poseía, al mismo tiempo, cantidades distintas de energía. Cuando se introducía un observador para medir alguna de estas variables, la partícula decidía adoptar una posición u otra o poseer una cantidad de energía u otra. Para explicar este fenómeno, Erwin Schrödinger ideó el famoso experimento del "gato de Schrödinger". ¿En qué consistió? "Imagínese un felino del tipo mencionado depositado en una caja sellada y opaca. En el interior de la caja se coloca un recipiente de gas venenoso conectado por un dispositivo a una partícula radiactiva de modo que, si ésta se desintegra, el gas escapa del recipiente y el gato muere envenenado. La partícula en cuestión tiene un 50% de probabilidades de desintegrarse durante un periodo de tiempo determinado." El tiempo se ha cumplido, la pregunta, que nos hacemos, es: ¿Está el gato vivo o muerto? En el lenguaje de la mecánica cuántica equivale a decir: ¿cuál es el estado del sistema caja- gato- mecanismo? Para conocer la respuesta es imprescindible que un observador abra la caja y "mida" el estado del sistema, entonces la partícula decidirá si se ha desintegrado o no, y, por tanto, el sistema "caja- gato- mecanismo" está en una superposición de estados: el gato no está ni vivo ni muerto, sino las dos cosas a la vez.

el gato de Schrödinger

Ahora bien, si llevamos el concepto de superposición de estados a la computación o a la criptografía, ¿cuál sería la relación entre ambos? Hasta 1984, nadie se planteó esta posible relación. Fue el físico David Deutsch que empezó a barajar una idea revolucionaria: ¿cómo podría ser los ordenadores si obedecieran a las leyes de la mecánica cuántica? ¿De qué modo podría la computación cuántica sacar partido de la superposición de estados? A través de estas cuestiones, David Deutsch puedo iniciar sus investigaciones sobre la computación cuántica y puedo, posteriormente, a través de su trabajo probar que era posible teóricamente la construcción de un ordenador cuántico.

El desarrollo de una posible computación cuántica traería consigo el desmoronamiento de la criptografía moderna. Tomemos, por ejemplo, romper una clave RSA, ¿es posible? La respuesta es sí. Si se construyera un ordenador cuántico, y se ejecutará el algoritmo de Shor, la clave RSA se desmoronaría, y con él, el edificio de la criptografía moderna. Peter Shor en 1994 pudo demostrar que se puede romper una clave RSA a través de su algoritmo, que lleva su nombre, el algoritmo de Shor. Mediante este algoritmo pudo demostrar que, si se ejecuta este algoritmo en un ordenador cuántico, se podría descomponer números primos enormes en un tiempo menor que el del ordenador convencional más potente del mercado.

Otro aspecto de la mecánica cuántica es el principio de indeterminación de Weiner Heisenberg. Según el propio Heisenberg no podemos conocer con detalle el presente. Resulta imposible determinar ciertas propiedades de una partícula en un momento dado. Pongamos, un ejemplo, para ilustrar estas palabras: el caso de los fotones, y, muy concretamente, una de sus características más fundamentales: la polarización. Pues bien, el principio de Heisenberg afirma que la única manera de averiguar algo sobre la polarización de un foton es haciéndolo pasar por un filtro o "rendija". En función de, si el foton está polarizado, horizontalmente, verticalmente o diagonalmente, el resultado será distinto. En consecuencia, una vez emitido un foton no es posible saber con certeza cuál era la polarización original. Entonces, ¿qué relación existe entre la polarización de los fotones y la criptografía? En 1984, Charles Bennett y Gilles Brassard idearon un criptosistema cuántico basado en la transmisión de fotones polarizados. La información se transmitía por medio de fotones polarizados que es un canal seguro por medio del cual se puede transmitir una clave única. El resultado de este proceso de polarización, es que tanto el emisor como el receptor comparten una secuencia de unos y ceros generada de forma aleatoria. El criptosistema cuántico ideado por Brassard y Bennett impecable, desde el punto de vista teórico, se pudo llevar a la práctica en 1989, cuando se puso a punto un sistema criptográfico formado por dos ordenadores separados por una distancia de 32 centímetros, uno de los cuales iba a hacer las veces de emisor y, el otro, de receptor. Tras pruebas y ajustes, emisor y receptor pudieron verificar sus claves. La criptografía cuántica era posible. El criptosistema cuántico desarrollado por Brassard y Bennett representa el éxito del secreto sobre la indiscreción, de la criptografía frente al criptoanálisis.

Criptosistema cuántico de Charles Bennett y Gilles Brassard

2 de mayo de 2016

Origen, cronología, ventajas y problemática de la computación cuántica

Ya habíamos mencionado, en una entrada anterior, ¿Qué es la computación?, qué era la computación cuántica. Esbozamos muy superficialmente una definición. Ahora, vamos a desarrollar otros aspectos como son el origen, la cronología, las ventajas y la problemática entorno a la computación cuántica.

El origen de la computación cuántica responde a la necesidad de descubrir nuevas tecnologías que superaran las limitaciones que imponen las propias leyes físicas a la hora de miniaturizar los chips. La imposición de estas limitaciones permitió que surgiera la idea de la computación cuántica en 1981. La idea de la Computación cuántica fue expuesta y desarrollada por Paul Benioff en 1981. Paul Benioff expuso su propia teoría sobre la computación cuántica, aplicando las leyes de la física cuántica a la computación. Según su teoría, "la cinta de la máquina de Turing podría ser reemplazada por una serie de sistemas cuánticos. Es decir, que en lugar de trabajar con voltajes eléctricos pasaría hacerlo con cuántos." En la computación clásica, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, como interviene las leyes de la mecánica cuántica, y, por tanto, una partícula puede estar en superposición: puede ser 0, 1 y puede ser 0 y 1 a la vez. Eso permite que se pueda realizar diferentes operaciones a la vez, según el número de qubits. En definitiva, las ideas esenciales de la computación cuántica surgieron del trabajo de Paul Benioff.

Posteriormente, se han realizado numerosas aportaciones a la computación cuántica. Las más significativas son las de David Deutsh, Dan Simon, Peter Shor y Lov Grover. En 1985, David Deutsh describió, por primera vez, el primer computador cuántico universal, es decir, capaz de simular cualquier otro computador cuántico. De este modo, sugerió que un computador cuántico podría ejecutar diferentes algoritmos cuánticos. En los años 90, se aplicó su teoría a la práctica: aparecieron los primeros algoritmos cuánticos y se realizaron los primeros cálculos cuánticos. En 1993, Dan Simon planteó un problema teórico que demostraba la ventaja del computador cuántico frente al clásico. Comparó el modelo clásico de probabilidad con el modelo cuántico. Sus ideas y observaciones sirvieron como base para el desarrollo de algoritmos como el de Lov Grover en 1996. En ese mismo año, 1993, Charles Benett descubrió el teletransporte cuántico y abrió la posibilidad de desarrollar comunicaciones cuánticas. Entre 1994 y 1995, Peter Shor definió un algoritmo, que lleva su nombre, el algoritmo de Shor, que permitía calcular los factores primos de números, mucho más rápidamente que las computadoras clásicas. Su algoritmo permitía romper muchos de los sistemas criptográficos existentes. En 1996, Lov Grover creó un algoritmo cuántico de tipo probabilístico para la búsqueda de datos conocido como Algoritmo de Grover. Ese algoritmo aceleraba los cálculos factoriales o las simulaciones físicas.

La computación cuántica presenta ventajas respecto a la computación clásica. Aporta enormes ventajas como la aplicación de operaciones masivas en paralelo y la capacidad de aportar nuevas soluciones a problemas que son abarcables desde la computación cuántica por su elevado coste computacional.

Uno de los principales problemas de la computación cuántica es el problema de la decoherencia cuántica que causa la pérdida del carácter unitario- o reversibilidad- de los pasos de un algoritmo cuántico. Otro de los principales problemas de la computación cuántica es la escalabilidad, sobre todo teniendo en cuenta el considerable aumento en qubits necesarios para realizar cálculos cuánticos, que implican la corrección de errores.

Computación cuántica

22 de abril de 2016

Historia de la computación

Vamos a dejar un enlace sobre la historia de la computación que recoge los principales hitos históricos del desarrollo de la computación desde la Edad Media hasta la actualidad. 
En este enlace: https://es.wikipedia.org/wiki/Anexo:Historia_de_la_computaci%C3%B3n podréis encontrar de forma pormenorizada una lista de estos principales hitos dentro de la computación. 

historia de la computación

20 de abril de 2016

¿Qué es la computación?

La computación es la ciencia que estudia los sistemas que gestionan automáticamente la información. Existen diferentes tipos de computación: computación ubicua, computación gráfica, computación distribuida, computación en la nube y computación cuántica.

La computación ubicua- conocida como Pervasive computing, Calm Tecnology, Things that Thing o Everywhere- tiene como objetivo la integración de la informática en el entorno de las personas. Su origen está en el trabajo de Mark Weiser en Xerox en el laboratorio de Palo Alto en los años 80. Las áreas de investigación y de desarrollo de la computación ubicua son: los sensores, redes de próxima generación, sistemas distribuidas, computación móvil y desarrollo de sistemas ubicuos.

La computación gráfica( o gráficos por ordenador) es el uso de los ordenadores tanto para generar imágenes visuales como para integrar o cambiar imágenes del mundo real. En la computación gráfica, podemos encontrar gráficos en 2D o en 3D.

La computación distribuida( o informática en malla) es un modelo para resolver problemas de computación utilizando multitud de ordenadores conectados entre sí por una red de comunicaciones.

La computación en la nube( o cloud computing, en inglés) es un conjunto de servicios informáticos, que se ofrecen de forma gratuita o de pago, a los usuarios a través de la conexión a Internet. Hay diferentes tipos de nubes: una nube pública, nubes privadas, nubes híbridas y una nube comunitaria.

La computación cuántica hace referencia a la aplicación de las teorías de la física cuántica en la informática. Es un nuevo paradigma de computación. Surgió en los años 80 y aún está en fase de desarrollo. Se basa en el uso de qubits en lugar de bits. Algunos problemas que se suponían intratables para la computación clásica, ahora se consideran tratables para la computación cuántica. Mientras un ordenador normal equivale a una máquina de Turing, un ordenador cuántico equivaldría a una máquina de Turing cuántica.

computación cuántica

11 de abril de 2016

Tipos de criptografía: criptografía simétrica, criptografía asimétrica y criptografía hibrida.

Existen diferentes tipos de criptografía. Vamos a centrarnos en 3 fundamentalmente: criptografía simétrica, criptografía asimétrica y criptografía hibrida.

La criptografía simétrica- también llamada criptografía de clave secreta o criptografía de una clave-. Es un método criptográfico en el que usa una misma clave para cifrar y descifrar mensajes. Tanto el emisor como el receptor deben ponerse de acuerdo de antemano sobre la clave a usar. Una vez que el emisor y el receptor tienen acceso a esta clave, el emisor cifra el mensaje usando la clave, y, el receptor descifra el mensaje, utilizando la misma clave. Como ejemplo de criptografía simétrica está Enigma. Éste fue el sistema empleado por Alemania durante la Segunda Guerra Mundial, en el que las claves se distribuían a diario en forma de libros de códigos. Cada día se consultaba en el libro de códigos la clave del día. Toda la información que se utilizaba era cifrado y descifrada usando las claves del día. El principal inconveniente de la criptografía simétrica está en el intercambio/ distribución de claves. Otro inconveniente es el número de claves que se necesitan. Esto puede funcionar si el número de personas es reducido, pero sería muy difícil si éste fuera un número mayor. Para solucionar estos dos inconvenientes se podría crear centros de distribución de claves simétricas.
criptografía simétrica

La criptografía asimétrica- también llamada criptografía de clave pública o criptografía de dos claves-. Es otro método criptográfico, alternativo a la criptografía simétrica, en el que se utiliza un par de claves para el envío de mensajes. Las dos claves pertenencen al emisor del mensaje a diferencia de la criptografía simétrica en la que el emisor sólo tiene un clave. Las dos claves pertenecen a la misma persona que ha enviado el mensaje. Una clave es pública y puede ser conocida a cualquier persona. La otra clave es privada y no puede ser conocida, nadie puede tener acceso a ella. Además, la criptografía asimétrica garantiza que ese par de claves sólo se pueda generar una sola vez. El remitente del mensaje puede utilizar la clave pública del destinatario podrá descifrar este mensaje, ya que es el único que la conocen. Por tanto, se logra la confidencialidad del envío del mensaje, nadie salvo el destinatario puede descifrarlo. La criptografía asimétrica como sistema de cifrado de clave pública se creó con la finalidad de evitar el problema del intercambio de claves en la criptografía simétrica. Con las claves públicas no es necesario que el emisor y el receptor del mensaje se pongan de acuerdo en la clave que se emplea. Existen dos tipos de criptografía de clave pública: el cifrado de clave pública y las firmas digitales. La mayor ventaja de la criptografía asimétrica es que la distribución de claves es más fácil y segura porque la clave pública es la que se distribuye, manteniéndose la clave privada en secreto y en exclusiva para el propietario, pero a su vez, este sistema tiene desventajas: el mensaje cifrado ocupa más espacio que el original, las claves son de mayor tamaño que las claves de la criptografía simétrica y para una misma longitud de clave y mensaje se necesita más tiempo de procesamiento.

criptografía asimétrica

La criptografía híbrida es un método criptográfico intermedia que utiliza tanto el cifrado simétrico como el asimétrico. Emplea el cifrado de clave pública para compartir una clave para el cifrado simétrico. El mensaje que se envía, se cifra usando su propia clave privada, luego el mensaje cifrado se envía al destinatario. Ya que compartir una clave simétrica no es seguro, ésta es diferente para cada sesión.
Criptografía híbrida

28 de marzo de 2016

Historia de la criptografía II

En el siglo XX, se volvió a experimentar grandes avances en la criptografía. Especialmente, durante las dos contiendas bélicas que marcarían el siglo XX: la Gran Guerra y la Segunda Guerra Mundial. En el siglo XX, la criptografía empieza a utilizar una nueva herramienta para cifrar y descifrar: las máquinas de cálculo. La más conocida es la máquina Enigma que utilizaba rotores que automatizaba los cálculos para cifrar o descifrar mensajes. Los mayores avances tanto en criptografía como en criptoanálisis se producieron en las dos contiendas. 

Durante la Primera Guerra Mundial, los alemanes usaron el cifrado ADFGVX. Consistía en una matriz de 6x6 utilizado para sustituir cualquier letra del alfabeto y los números 0 a 9 con un par de letras que consiste de A, D, F, G, V o X. Pero, sin duda, es en la Segunda Guerra Mundial, cuando se produce un salto cualitativo en el desarrollo de la criptografía, muy especialmente, en el criptoanálisis. Ese salto cualitativo lo produce la construcción de la máquina Enigma por parte de los alemanes y el intento por desentrañar el cifrado del código Enigma, primeramente por los polacos, posteriormente, por los británicos. Poco antes del estallido de la Segunda Guerra Mundial, la Oficina de Cifrado de Polonia, presentaron a los representantes de la inteligencia francesa y británicos, los secretos del descifrado de la máquina Enigma en Varsovia. Cuando la guerra era inminente, los criptógrafos polacos huyeron a París y continuaron rompiendo los códigos de la máquina Enigma, colaborando con criptógrafos británicos- entre los cuales se encontraban Alan Turing y Gordon Welchman, lograron desentrañar y descifrar el código Enigma-. 

Sin duda, el inicio de la criptografía moderna se inicia con el artículo de Claude Shannon "Communication theory of secrecy systems" en la Bell System Technical Journal en 1949, y poco después publica un libro "Mathematical theory of Communication" con Warren Weaver. Estos trabajos junto con su teoría de la información y la comunicación, establecieron una base sólida teórica para la criptografía y el criptoanálisis. A mediados de los 70, se vieron dos importantes avances públicos en criptografía. El primero fue la publicación del Data Encryption Standard- DES- en 1975. Fue una propuesta del IBM. Era una propuesta para el desarrollo de sistemas de comunicación seguros para las empresas, bancos o el sistema financiero. El DES fue el primer cifrado accesible públicamente. Su publicación estimuló un interés creciente por la criptografía. El segundo gran avance en criptografía fue el desarrollo de la clave pública en 1976. El desarrollo de la clave pública cambió como funcionaban los sistemas criptográficos. El artículo "New directions in Cryptography" de Whitfield Diffie y Martin Hellman donde se introdujo un nuevo método para distribuir las claves criptográficos, dando un gran paso en la resolución de uno de los problemas fundamentales de la criptografía, la distribución de claves. Se ha terminado llamándose intercambio de claves Diffie-Hellman. En el artículo, también se desarrolla un nuevo tipo de algoritmo de cifrado, los algoritmos de cifrado asimétrico. Antes, todos los algoritmos de cifrado eran algoritmos de cifrado simétrico en donde el remitente como el destinatario de un mensaje compartían clave criptográfica, manteniendo ambos en secreto. Todos los sistemas criptográficos y cifrados de la historia respondían a algoritmos de cifrado simétrico. En estos sistemas, conocidos como sistemas criptográficos de clave secreta o de clave simétrica, era necesario que tanto el remitente como el destinatario del mensaje, intercambien las claves de forma segura antes del uso del sistema criptográfico. Este requisito se hace difícil cuando crece el número de particulares o cuando no hay canales seguros disponibles para el intercambio de claves o bien cuando los claves cambian con frecuencia. En contraste, el cifrado de clave pública o de clave asimétrica utiliza un par de de claves en el que una de ellas descifra el cifrado que se realiza con la otra. Designando una de las claves del par como privada- siempre secreta- y la otra como pública- visible públicamente-, no se necesita ningún canal seguro para el intercambio de claves. Mientras la clave privada permanezca en secreto, la clave pública puede ser conocida públicamente sin comprometer la seguridad del sistema criptográfico. No obstante, para que dos usuarios puedan comunicarse de forma segura a través de un canal inseguro, cada usuario necesita conocer la clave pública y privada de uno y la clave pública del otro usuario y viceversa.
historia de la criptografía

21 de marzo de 2016

Historia de la criptografía I

Como hemos dicho antes, la criptografía surge con las primeras grandes civilizaciones de la humanidad. La historia de la criptografía se remonta, por tanto, hace miles de años. Su aplicación inicial en las campañas militares, fue extendiéndose a otros ámbitos a medida que se desarrollaba y se entendía su utilidad. La evolución de la criptografía ha ido a la par de la evolución del criptoanálisis. Hasta no hace mucho, la criptografía dominante era la criptografía clásica hasta la llegada de la criptografía asimétrica o criptografía de clave pública en la segunda mitad del siglo XX.

Veamos cuál ha sido el desarrollo histórico de la criptografía desde sus inicios en las antiguas civilizaciones hasta el siglo XIX. El uso más antiguo conocido de la criptografía es en jeroglíficos de monumentos del Antiguo Egipto- hace más de 4.500 años-. Los griegos y posteriormente los romanos también conocieron y hicieron uso de la criptografía. Muy concretamente, los griegos utilizaban el cifrado por transposición-conocido como escítala- y la esteganografía. Mientras que, los romanos utilizaban para sus campañas militares el llamado cifrado César, también conocido como cifrado por desplazamiento, código de César o desplazamiento de César. Se trata de un tipo de cifrado por sustitución en el que una letra en el texto original es reemplazada por otra letra que se encuentra un número fijo de posiciones más adelante en el alfabeto.

La criptografía tuvo un desarrollo destacable en la Edad Media. Entorno al año 1000, se desarrolló una técnica llamada análisis de frecuencias cuyo objetivo era romper los cifrados por sustitución monoalfabéticos que se utilizaban en aquel momento. Fue el mayor avance en criptoánalisis hasta la llegada de la Segunda Guerra Mundial. Todos los mensajes cifrados quedaron vulnerables a esta técnica criptoanalítica hasta la invención del cifrado polialfabético en 1465 por León Battista Alberti. La criptografía se hizo todavía más importante durante el Renacimiento en los estados italianos, incluido los Estados Pontificios, donde proliferaron el uso de técnicas criptoanalíticas. Más tarde, la criptografía y, muy particularmente, el criptoanálisis tuvieron un papel en la conspiración de Bahington, durante el reinado de la reina Isabel I de Inglaterra, donde provocaron la ejecución de María, reina de los escoceses. Durante los siglos XVII, XVIII y XIX, el interés de los monarcos europeos por la criptografía fue notable.

Aunque, la criptografía tiene una historia larga y compleja, no es hasta el siglo XIX, cuando se supera el desarrollo de soluciones ad hoc tanto para el cifrado como para el criptoanálisis. La criptografía da un salto cualitativo: se pretende dotar a un sistema criptográfico de propiedades deseables. Concretamente, seis. Estas propiedades deseables de un sistema criptográfico se conocen como los principios de Kerckhoffs. Recibe el nombre del lingüísta y criptógrafo holandés Auguste Kerckhoffs. Tanto la criptografía como el criptoanálisis se van haciendo cada vez más matemático y menos lingüístico.

historia de la criptografía

10 de marzo de 2016

Conceptos básicos de criptografía.

La codificación es un método de escritura en clave que consiste en sustituir una palabras por otras. La alternativa a la codificación sería el cifrado que sustituye letras por caracteres. Para esta segunda definición, el término correcto para esta segunda acepción sería encriptar. Pongamos un ejemplo para ilustrarlo: "si quisiéramos transmitir de forma segura el mensaje "ATACAR" podríamos hacerlo de dos maneras básicas: sustituyendo la palabra(codificación) o sustituyendo alguna a la totalidad de las letras que la componen( cifrado)." Una manera sencilla de codificar una palabra es traducirla a un idioma desconocido, mientras que para cifrarla sería suficiente sustituir cada letra por otra del alfabeto que esté situada más adelante. En ambos casos, es necesario que el destinatario del mensaje cifrado conozca la regla( es decir, traducir a otro idioma o sustituir cada letra o sustituir cada letra por otra) que se ha utilizado para encriptar el mensaje. Sólo será necesario comunicarle en qué idioma se ha escrito o bien el número de posiciones hemos adelantado una letra en el alfabeto.

Por otro lado, debemos establecer una distinción entre la regla de encriptación( que hemos utilizado, que es de aplicación general) y los parámetros concretos de encriptación( específica de cada mensaje o bien grupo de mensaje). Ambos son necesarios para descifrar el mensaje. A la regla general de encriptación se la denomina algoritmo de encriptación mientras que el parámetro concreto empleado para cifrar o codificar el mensaje se denomina clave. Dado un algoritmo de encriptación, el número de llaves puede ser muy grande, es muy útil conocer la clave empleada para poder encriptar el mensaje. Siendo las claves más fáciles de cambiar y de distribuir, tiene sentido concretar los esfuerzos en proteger el sistema de encriptación que mantenga en secreto las claves. Este principio se conoce como "principio de Kerckhoffs" nombre que recibe del lingüística neerlandés Auguste Kerckhoffs. En cualquier sistema de encriptación encontraremos: un emisor y un receptor del mensaje, un algoritmo de encriptación y una clave que permite al emisor cifrar el mensaje y al receptor, descifrarlo.
Criptografía clásica

Como hemos dicho anteriormente, el principio de Kerckhoffs concibe a la clave como el elemento fundamental en la seguridad de un sistema criptográfico. Hasta ahora, las claves de un emisor y de un receptor en cualquier sistema criptográfico tenía que ser iguales o simétricos, es decir, tenía que servir igualmente para encriptar y desencriptar. La clave era un secreto compartido entre emisor y receptor, y por tanto, el sistema criptográfico en cuestión era vulnerable. Este tipo de criptografía donde el emisor y el receptor comparten clave se denomina criptografía clásica o de clave privada. Sin embargo, hace 50 años, todo cambió. Hoy en día, los algoritmos de encriptación consisten en, al menos, 2 claves: una privada, como la criptografía clásica, y otra pública que conoce todo el mundo. Este tipo de criptografía se conoce como de clave pública o criptografía pública. Esta criptografía constituye la base del desarrollo de la criptografía pública está las matemáticas. Y, muy específicamente, la aritmética modular, por un lado, y la teoría de números, por el otro.

Criptografía pública

2 de marzo de 2016

¿Qué es la criptografía?

El término criptografía procede del griego. Hace referencia a "criptos" oculto y "grafe" escritura. Literalmente, la criptografía significa "escritura oculta". La criptografía es muy antigua. Nació con las primeras grandes civilizaciones de la humanidad. Aparece con el nacimiento de la escritura. Mesopotámicos o egipcios empezaron a utilizar métodos de cifrado aunque quienes aplicaron la criptografía con fines militares fueron los griegos y los romanos. Con ellos, surgieron aquéllos que protegían los secretos, los criptógrafos, y aquellos que pretendían desvelarlos, los criptoanalistas.

Podríamos definir la criptografía como el arte de escribir en clave. Los ámbitos de la criptografía son el cifrado y la codificación destinados a alterar el mensaje con el fin de hacerlo ininteligibles a aquéllos que no están autorizados para leerlos. Por tanto, el principal objetivo de la criptografía no es otro que lograr la confidencialidad de los mensajes. Para ello, es imprescindible el diseño de sistemas de cifrado y códigos. El primer tipo de criptografía que se desarrolla es la criptografía clásica. Y utiliza, principalmente, dos sistemas de cifrado: el cifrado por transposición y el cifrado por substitución.

Hoy en día, la criptografía se encarga del estudio de los algoritmos, protocolos y sistemas que se utilizan para proteger la información así como de dotar de seguridad a las comunicaciones y a las entidades que se comunican. Para ello, la criptografía diseña, implementa, implanta y hace uso de sistemas criptográficos para dotar de seguridad.

Criptografía