Follow us on:
Perspectives

Articles tagged with: Maria Jose de la Calle

Centro de Datos definido por SW: hiperconvergencia

Wednesday, 16 March 2016 Maria Jose de la Calle Posted in iTTi Views

"Forget Hardware, Forget Software, Forget the Infrastructure ..."

Yevgeniy Sverdlik, dec-2015[i]

El centro de datos o Data Center (DC), se puede considerar el centro neurálgico de la empresa, ya que es el soporte de todos sus procesos y de la información generada y adquirida en el desarrollo de su actividad, y del crecimiento y evolución de la empresa, hecho que ya nadie discute.

El DC ha ido evolucionando al tiempo que la tecnología y las necesidades del negocio. Se han ido acumulando servidores y elementos de almacenamiento de varios fabricantes, de distintas épocas, en distintas localizaciones de la empresa o fuera de ella; servicios gestionados por la propia empresa o por proveedores externos; servidores replicados para seguridad; servidores dedicados a aplicaciones con cargas de trabajo intermitentes; DC alternativos para garantizar la recuperación ante desastres, etc. Sin olvidar las comunicaciones y los elementos de red, independientes de los propios servidores y de los elementos de almacenamiento ya mencionados. 

Esto ha ido creando, a lo largo del tiempo, silos de infraestructura tecnológica diversa, procedente de los distintos fabricantes, dificultando la compartición de recursos y la gestión de los mismos; y ralentizando las respuestas al negocio. Todo ello con presupuestos que han ido menguando en los últimos tiempos, mientras crecían las exigencias de eficiencia, eficacia y seguridad. 

Para paliar esta situación de desorden y complejidad, son varias las soluciones que se han ido probando, si bien, todas ellas parciales. Una de ellas ha sido la denominada "infraestructura convergente" (converged infrastructure) en la que se combinan los servidores con las unidades de almacenamiento en un sólo recurso. Ello ha permitido simplificar la gestión y ha favorecido la virtualización y la compartición de recursos. No obstante el hardware (HW) ha seguido manteniendo el protagonismo, al tiempo que el software (SW) ha actuado como mero elemento de soporte. Esta solución se ha mostrado adecuada para nuevos recursos a incorporar al DC, aunque no tanto para la integración de los elementos existentes.[ii] 

En paralelo, han surgido otras corrientes que tienen al SW como protagonista y que están permitiendo la definición, basada en SW, de elementos de infraestructura como las redes -Software-Defined Network, SDN- y los propios centros de datos -Software-Defined Data Center, SDDC-.

De la fusión de estas diferentes aproximaciones ha surgido una nueva: la hiperconvergencia, un concepto de los últimos dos años y que, análogamente a lo que ocurre con otras "novedades" del ámbito tecnológico, aún no parece gozar de una definición unánimemente aceptada. Sirva, por tanto, la definición ofrecida por TechTarget, para quién "Hiperconvergencia es un tipo de sistema de infraestructuras basado en una arquitectura de software que integra computación, almacenamiento, redes, recursos de virtualización y otras tecnologías todo ello empaquetado en una caja de hardware básico y soportado por un único fabricante"[iii].

El SW hace posible la virtualización de la infraestructura al tratar los recursos de la CPU, la memoria, el almacenamiento y las redes en un sólo dispositivo; permite centralizar el control y la gestión independientemente de dónde se encuentre la infraestructura física. El SW, además, facilita la automatización de muchas tareas aumentando con ello la eficacia, al distanciarse del HW mediante la definición de servicios. 

El hecho de que la hiperconvergencia esté soportada por el SW, proporciona la flexibilidad requerida para responder no sólo a las actuales sino a las futuras necesidades del negocio, en muchos casos sin tener que reemplazar componentes de la infraestructura, simplemente añadiendo nuevo SW o modificando/ reconfigurando el existente. 

Existe un amplio consenso en el sentido de que TI ha de cambiar la percepción que, de ella, se tiene desde el resto de áreas del negocio. Como señala el analista Thomas Bittman, de la firma Gartner, hoy TI es visto como lento, como un lastre y como un sitio donde siempre te dicen '¡No!'. Frente a ello, la nueva percepción ha de ser la de contribuir a la generación de valor, a acelerar los cambios en el negocio y a proteger la empresa.[iv] La Hiper-Convergencia puede facilitar este cambio en tanto que permite al departamento de TI descargarse de muchas de las tareas rutinarias que son automatizadas o simplificadas por ella.

* * *

Este artículo fué publicado originalmente por ComunicacionesHoy, nº 150, 3-03-2016. Referencia: Especial/Centros de Datos. Opinión, pg.40 – "Centro de Datos definido por software: hiperconvergencia" – María José de la Calle.   

--------------------------------------- 

[i] Sverdlik, Yevgeniy, dec, 8, 2015. "Forget Hardware, Forget Software, Forget the Infrastructure". "Data Center Knowledge". url [a 13-02-2016] http://www.datacenterknowledge.com/archives/2015/12/08/gartner-enterprise-it-should-forget-hardware-software-infrastructure/ 

[ii] "The products can’t always be used by existing infrastructure. In other words, you can’t use a converged infrastructure appliance’s storage from existing legacy systems. In essence, you’re forced to create a separate resource island.". Hyperconverged.org, "Why hyperconverged infraestructure is different". url [a 13-02-2016] http://www.hyperconverged.org/understanding-converged-infrastructure/ 

[iii] "Hyper-convergence (hyperconvergence) is a type of infrastructure system with a software-centric architecture that tightly integrates compute, storage, networking and virtualization resources and other technologies from scratch in a commodity hardware box supported by a single vendor." url [a 13-02-2016] http://searchvirtualstorage.techtarget.com/definition/hyper-convergence 

[iv] Ver nota [i]

 

Integración de comunicaciones

Monday, 15 February 2016 Maria Jose de la Calle Posted in iTTi Views

La expresión "comunicaciones unificadas", UC (del inglés, Unified Communications) es relativamente nueva con unos antecedentes que podrían localizarse en la mensajería unificada (integración de voz, fax y correo-e). Además, dicha expresión no parece gozar de una acepción comúnmente aceptada; de un lado atiende a diferentes significados dependiendo del mercado al cual se represente; de otro, podría decirse que carece de "estabilidad" por cuanto -como todo lo referido a la tecnología- está en permanente evolución. Consecuentemente, se hace oportuno comenzar por aclarar el sentido de cada uno de los términos que la componen:

- en primer lugar, el sustantivo "comunicaciones" hace referencia a los medios que permiten que se establezca la interlocución, o la transmisión de algún tipo de señal, entre dos extremos, como por ejemplo, el telégrafo, el fax, el teléfono, etc. 

- en segundo lugar, el adjetivo "unificadas" sugiere aquello "que ha recibido unificación", esto es, que ha sido objeto de alguna "acción o efecto de unificar", de "hacer que cosas diferentes o separadas formen una organización, produzcan un determinado efecto, tengan una misma finalidad". 

La finalidad esencial de la comunicación es la de facilitar la transmisión de un mensaje a través de, o con ayuda de, un medio. Con la evolución de la Tecnología estos medios también han ido cambiando, y ampliándose en número, de forma que se ha pasado, en diferentes estadios de dicha evolución, por el teléfono fijo, por el fax, por el ordenador y sus redes, por el teléfono móvil, etc.; los cuales, a su vez, han permitido ser soporte de diversos tipos de mensajes: de voz, de correo-e, de carácter instantáneo, de vídeo, de datos.  

Pero los beneficios de esa variedad de mecanismos (medios) de comunicación y de mensajes, quedan, al mismo tiempo, eclipsados por la necesaria atención que el usuario ha de prestar a, y las diferentes identidades y credenciales que ha de manejar en cada uno de ellos, la dispersión de la información tratada (enviada, recibida, etc) y la falta de disponibilidad, tanto de la propia información como de los medios empleados para transmitirla, que no siempre están al alcance en todo momento y lugar. Solventar estas dificultades será la finalidad de las "comunicaciones unificadas": con ellas podrán utilizarse los diferentes medios para comunicarse, de las distintas formas posibles, con cualquiera,  en cualquier momento y en cualquier lugar, independientemente del dispositivo a utilizar y del formato o formatos en que se encuentre el mensaje. 

El usuario tendrá asociada una única identidad en los diferentes medios y empleará una sola interfaz desde la que podrá revisar sus mensajes de voz, fax, correo-e, etc., o iniciar una conversación con aquellos usuarios conectados, sobre cuya disponibilidad le mantendrá informado, permanentemente, el propio sistema de "comunicaciones unificadas". 

Algunos componentes de este tipo de sistemas serían: la ya mencionada la mensajería unificada; la mensajería instantánea; las herramientas de conferencia y colaboración en tiempo real, que incluyen audio, vídeo, conferencias a través de la web, compartición de espacios de trabajo y pizarras -virtuales-, ficheros, flujos de trabajo, planificaciones, etc.; y la integración con los procesos de negocio, pudiendo iniciar un proceso de comunicación desde dentro de una aplicación, facilitando por ejemplo una notificación o una petición o consulta.  

Si bien, todos estos componentes, por separado, no constituyen novedad alguna, si lo es la integración de todos ellos, integración que conduce a los retos de la compatibilidad y la interoperabilidad de los distintos componentes, y, en última instancia, al de nuevas funcionalidades que a raíz de la integración puedan surgir. Tal es el caso de la posibilidad de iniciar una llamada al autor de un documento que se está revisando, desde el propio documento. 

Las "comunicaciones unificadas" parecen portadoras de importantes ventajas; una, sin duda parece la optimización de los procesos del negocio; sin embargo, cuando se dan situaciones de baja o nula cobertura, aquellos procesos ligados a la necesidad de estar conectados, no funcionarán adecuadamente. Se necesitará, por tanto, tener en cuenta que puedan funcionar con o sin comunicación. Así lo proponía el pasado 8 de enero de 2016 el consultor de la firma Gartner, Robert Desisto, en su "Mobile Offline: Back to the Future".

Finalmente, la gran dependencia que podemos llegar a tener de estas plataformas de comunicación unificada, nos hace más vulnerables como "punto de fallo único", en disonancia con D. Pedro Calderón de la Barca que, en 1629 escribía "casa con dos puertas, mala es de guardar".  

* * * 

Este artículo fué publicado originalmente por ComunicacionesHoy, nº 149, 27-01-2016. Referencia: Especial/Comunicaciones Unificadas. Opinión, pg.32 – "Integración de Comunicaciones" – María José de la Calle.   

--------------------------------------- 

Confianza, seguridad y GCTI

Thursday, 07 January 2016 Maria Jose de la Calle Posted in iTTi Views

Del DRAE:

Confiar: Depositar en alguien, sin más seguridad que la buena fe y la opinión que de él se tiene, la hacienda, el secreto o cualquier otra cosa. 

Confianza: Esperanza firme que se tiene de alguien o algo. 

* *

“Privacy and security are important brand differentiators and companies need to move from a mindset of meeting compliance requirements to becoming a steward of consumer data.”  

[Del correo enviado por Craig Spiezle, Director y fundador de la "Online Trust Alliance" a la NIST el 1 de agosto de 2011]. 

Aunque esta cita ya tiene más de 4 años, el contenido del correo no ha perdido vigencia en absoluto. 

Las brechas de seguridad en todo tipo de organismos, tanto públicos como privados, compañías tecnológicas o de cualquier otro sector, y hasta en empresas dedicadas a desarrollar y vender herramientas de intrusión en los sistemas -como la empresa italiana Hacking Team[i] que en julio de este año -2015- sufrió un ataque divulgándose una gran cantidad de información de clientes-, están pasando a ser consideradas sucesos cotidianos. 

En el individuo esta cotidianidad podría tener, entre otros, dos efectos a cual más nocivo, consecuencias ambos de considerarlos irremediables, y como tales, rendirnos a su inevitabilidad. Uno de ellos sería  dejar de tomar medidas adecuadas para evitar la intrusión, otro sería dejar de utilizar los servicios proporcionados a través de la red, como consecuencia de la pérdida de confianza en los sistemas, y, por extensión, en las empresas que los proporcionan. 

El primer efecto causaría a nivel de dispositivo individual -de hecho está causando por negligencia o ignorancia- daños por virus con efectos de secuestro del contenido del ordenador, cifrándolo y solicitando dinero como rescate (ransomware); o uso por terceros de dispositivos sin permiso del propietario creando redes de ordenadores esclavos (botnets) utilizados posteriormente para actuaciones ilícitas, como por ejemplo ataques distribuidos de denegación de servicios (DDoS, Distribuited Denial of Service); o para entrar en una red de una empresa a través de un dispositivo móvil autenticado; o simplemente robo de información contenida en los dispositivos, importante para el individuo, para la empresa en la que este trabaje o para terceros relacionados con él.

El segundo efecto daría al traste con la digitalización del mercado y los servicios en particular, y de la sociedad de la información en general. 

La Global Commission on Internet Governance  (GCIG) publicó este pasado mes de abril "Toward a Social Compact for Digital Privacy and Security", de lo que se hizo eco iTTi[ii], un importante documento de 29 páginas que, al considerar necesario restaurar la confianza en el uso de internet, proponía que todas las partes interesadas colaboraran en la adopción de normas para un comportamiento responsable de dicho uso.  

Sin embargo, no es sólo cuestión de datos en línea. Hoy día, todos las organizaciones utilizan para su gestión tecnologías de la información aunque no sea en-línea, manejando datos sobre sus trabajadores, asociados, clientes, socios, proveedores, etc. así como los datos producto de la relación establecida con ellos. Y sus sistemas son susceptibles de ser atacados y que estos ataques tengan éxito. 

Por tanto, aunque no se utilicen directamente servicios en-línea, los datos que es necesario proporcionar a una entidad con la que se está estableciendo alguna relación o los datos producto de dicha relación -por ejemplo, los de una prueba médica- se van a almacenar probablemente en un sistema informático. Y este sistema informático es probablemente accesible desde la red. Como se indica en la cita que abre este artículo, "las empresas han de transformarse en administradores de datos" de los terceros con los que se relacionan.  

Los negocios y las instituciones dependen en gran medida de un bien intangible que se llama "marca". La marca de una empresa es como la reputación de las personas. Esta marca está ligada a la confianza -hipótesis que los demás hacen sobre la conducta futura de la empresa- que sepan transmitir. 

Según un estudio, realizado por el instituto Ponemon y publicado el 26/08/2015, para responder a la pregunta "what erodes trust in digital brands?"

- el 63% de los consumidores no confían en las web de compañías que han tenido brechas de seguridad;

- el 55% de los consumidores no confían en webs que no tienen salvaguardas para proteger la información personal;

- el 50% de los consumidores aún después de un año de una brecha de seguridad perciben negativamente una marca;  

- el 69% de los consumidores han dejado webs de compañías por problemas de seguridad.

Aunque este estudio se centra en las páginas web y la marca digital, casi todas las empresas han sufrido o están sufriendo una transformación digital, y tienen página web, a través de la cual ofrecen más o menos servicios y se comunican con sus clientes, siendo, en muchos casos, la página web la generadora -y mantenedora, junto con las redes sociales- de su marca, ya digital. 

Como consecuencia de todo lo anterior, un aspecto que ha entrado de lleno en la imagen de marca de una institución o empresa ha sido la seguridad de sus sistemas informáticos, ya que en ellos residen datos de terceros, y, por tanto, contractualmente o no, deben ser garantes de la seguridad de dichos datos, al haber sido cedidos en la confianza de una relación.  

Enlazando con las definiciones con las que se iniciaba este artículo, los datos se depositan y son confiados sin más que con la buena opinión que se tiene de la empresa -imagen de marca- y en la esperanza firme de que sean tratados adecuadamente para el fin para el que se ceden. 

La seguridad de la información ha pasado de ser un tema "de los informáticos" a ser un tema "de negocio". La posible pérdida o robo de información generados por la aplicación y uso de las tecnologías de la información, especialmente, del "siempre conectados" es un riesgo que ha de gestionarse adecuadamente dentro de la política de gestión de riesgos de la compañía en cuestión, y estar sobre la mesa de su órgano de gobierno. 

Entender la [ciber]estrategia es esencial, pero salvo honrosas excepciones, los temas de [ciber]seguridad -y los temas de TI en general- se tratan principalmente desde un punto de vista técnico, ignorando que sólo un enfoque estratégico puede preparar a las empresas para conseguir ventaja sobre los ciber-atacantes. El órgano de gobierno necesita preguntarse porqué es necesaria la [ciber]seguridad, qué caracteriza las distintas amenazas, cual es el riesgo derivado del uso de las TI, qué nivel de [ciber]seguridad se necesita para disponer de un sistema que funcione y con capacidad para recuperarse de un ataque -resiliencia-[iii]. En resumen, la estrategia para defender el valor y anticipar nuevos escenarios de amenazas. 

En realidad, la decisión de cómo se utilizan las tecnologías de la información y los riesgos asociados, o lo que se ha llamado "Gobierno Corporativo de las TI", debería formar parte de la agenda de dicho órgano de gobierno. En palabras de la Organización Internacional de Normalización (ISO, International Organization for Standardization), el Gobierno Corporativo es “el sistema mediante el cual se dirige y controla el uso actual y futuro de las TI. [...] ... y es un subconjunto del gobierno de la organización o del gobierno corporativo.”[iv] 

* *

En iTTi, prestamos atención preferente al gobierno corporativo de las tecnologías de la información por quien tiene, en las empresas y organismos, la obligación y potestad para ejercerlo; esto es, por quien tiene la responsabilidad última de decidir sobre la aplicación y uso de dichas tecnologías en el ámbito de la organización: el Órgano de Gobierno (Consejo de Ministros, Consistorio, Consejo de Administración, Patronato, Rectorado, …, según el caso).

Ese Órgano de Gobierno ha de ocuparse, además, de identificar a todos los ‘interesados’ (incluidos sus intereses y demandas).

* *

No nos vamos a quejar si las TI se sientan en el consejo aunque sea de la mano de la seguridad ... 

* * *

Este artículo fué publicado originalmente por @PuntoSeguridad.com/"Cuadernos de Seguridad", dic-2015, nº 306, pg.57, Ciberseguridad – "Confianza, seguridad y CGTI" – María José de la Calle.  

-----------------------------------

[i] url [a 2015.10.04] http://politica.elpais.com/politica/2015/07/07/actualidad/1436284983_731864.html 

[ii] Palao, Manolo. "Hacia un nuevo contrato social sobre la privacidad y seguridad digitales", abril, 2015. url [a 2015.10.04]: http://www.ittrendsinstitute.org/perspectives/item/nuevo-contrato-seguridad-digital.  

[iii] url [a 2015.10.18]: https://blogs.mcafee.com/executive-perspectives/fighting-fire-fire-will-lead-us-dangerous-future/  

[iv] "ISO/IEC 38500:2015 applies to the governance of the organization's current and future use of IT including management processes and decisions related to the current and future use of IT. [...] ... defines the governance of IT as a subset or domain of organizational governance, or in the case of a corporation, corporate governance."

url [a 2015.10.23]: http://www.iso.org/iso/home/store/catalogue_ics/catalogue_detail_ics.htm?csnumber=62816  

 

El aprendizaje de las máquinas: de lo digital al algoritmo.

Thursday, 07 January 2016 Maria Jose de la Calle Posted in iTTi Views

Una de las tendencias que Gartner identifica para el 2016 es el aprendizaje avanzado de las máquinas en base a las llamadas redes neuronales profundas (deep neural nets o DNNs), sistemas que pueden aprender de forma autónoma para entender el mundo. Posibilitan el autoaprendizaje de todas las características de su entorno. Las organizaciones deben evaluar cómo aplicar estas tecnologías para ganar ventaja competitiva [i]. 

Continuando con el futuro dibujado por Gartner, los algoritmos definirán el futuro de la empresa. En una empresa algorítmica, la mayor parte de lo que sucede se producirá en el trasfondo de la empresa, a través de máquinas inteligentes, sin que las personas estén directamente implicadas. Evolucionaremos a un mundo post-app, con agentes inteligentes proporcionando dinámicamente interfaces y realizando acciones contextuales como, por ejemplo, lo que Gartner llama asistentes personales virtuales (virtual personal assistants o VPAs). 

De la empresa digital a la empresa algorítmica.  

Un ejemplo de asistente personal es la herramienta que acaba de hacer pública Google, llamada "Dubbed Smart Reply (DSR)"[ii] con la cual un dispositivo con servicio de correo podría responder automáticamente correos-e. De momento, la herramienta propone 3 breves respuestas de las cuales se puede elegir una y, si se quiere, completarla o modificarla. DSR aprende analizando gran cantidad de correos-e del servicio Gmail de una vasta red de ordenadores, las redes neuronales a las que hace referencia Gartner, llamadas así por su funcionamiento análogo a las redes neuronales de nuestro cerebro. Las redes analizan la información en base a algoritmos para aprender una tarea concreta, en este caso entender los correos y ser capaces de responderlos. 

Estos algoritmos, llamados "Deep learning", provienen de la Inteligencia Artificial (IA) de los años 80, pero es ahora con la vasta de red de comunicaciones y la enorme cantidad de datos de los que se dispone que se les está sacando todo su potencial  y  que está haciendo evolucionar rápidamente un amplio rango de servicios online, como el reconocimiento del habla en el teléfono, la traducción instantánea en Skype, el reconocimiento de caras en las imágenes que se suben a la red, las recomendaciones de cosas que nos pueden gustar o amigos que podemos hacer, al fin y al cabo campos tradicionales de la IA -reconocimiento de voz, reconocimiento de imágenes, textos- y a la robótica, con un único modelo de aprendizaje. 

Las máquinas aprenden por medio de algoritmos inspirados en cómo se cree que funciona nuestro cerebro, que son capaces de tratar grandes cantidades de datos estructurados y no estructurados, y que no tienen limitaciones teóricas sobre lo que pueden llegar a hacer. De cuantos más datos se les provea o las máquinas mismas recojan, y cuanto más largo sea el tiempo de cálculo, mejores resultados conseguirán. Por ejemplo, analizando gran cantidad de palabras habladas, pueden aprender a reconocer las órdenes dadas por voz a un teléfono. 

Y ya no habrá que escribir instrucciones precisas en las que decir a las máquinas lo que tienen que hacer, dependiendo de las situaciones tomarán decisiones en una u otra dirección sin que se les haya dado dichas instrucciones expresas escritas en un programa. 

En realidad, es nuestra forma de aprender, absorbiendo datos y situaciones desde que nacemos, creando patrones y aplicándolos a nuevas situaciones -con mayor o menor fortuna-. 

De momento, tenemos que seguir escribiendo y manteniendo máquinas con viejos y nuevos algoritmos, ¿pero por cuánto tiempo? En un artículo [iii] publicado por MIT el 15 de junio de 2015, Larry Hardesty explicaba que investigadores del MIT habían presentado  un nuevo sistema para reparar errores peligrosos de software (SW) importando funcionalidades de otras aplicaciones más seguras. En el mismo artículo se indicaba que existen "toneladas" de código fuente disponible en repositorios open-source, millones de proyectos, y una gran cantidad de estos proyectos implementan funcionalidades similares o tienen componentes con funcionalidades comunes. El sistema toma las mejores componentes que encuentra. 

Con estas toneladas de código las máquinas podrían aprender no sólo a arreglar un error, sino a programar[se] nuevas funcionalidades.  

Las máquinas ya saben leer y escribir, pueden interpretar lo que oyen -los dictáfonos, traductores, etc-, sus cámaras no sólo registran lo que ven, sino que lo interpretan -búsquedas en Google de texto a partir de imágenes o búsquedas de imágenes a partir de texto-. 

Primero fueron las herramientas para realizar actividades que nuestros músculos no podían, es decir, realizar actividades físicas, pero manejadas con energía muscular; estas evolucionaron hacia máquinas-herramientas cuyo movimiento sería autónomo a base de motores impulsados por energía térmica, hidráulica o eléctrica pero dirigidos por nuestro cerebro; posteriormente, llegaron las máquinas dirigidas por instrucciones residentes en las propias máquinas, las máquinas programables con programa almacenado, que eran -y son- capaces de realizar otro tipo de actividad, más de la mente que de los músculos, actividades automatizables y repetitivas que responden a algoritmos matemáticos. Llegó la revolución del SW. 

Al mismo tiempo que las máquinas-herramientas evolucionaban, evolucionaba el trabajo, de un trabajo con los músculos a un trabajo con la mente, de generar valor con los músculos a generar valor con la mente, lo que podríamos llamar el trabajo del conocimiento. 

Y la evolución del SW, y por ende, la evolución de lo que las máquinas pueden hacer, continúa. Ahora las máquinas están aprendiendo de todo lo que les rodea, con lo que las estamos dotando, también, de capacidad de generar valor con su mente artificial. Este valor generado por las máquinas es el que tenemos que saber utilizar para, a su vez generar más valor. Viviremos y trabajaremos con ellas en nuestro beneficio y ellas nos irán redefiniendo a nosotros. Como afirmó Marshall McLuhan (1911-1980) sociólogo canadiense "We shape our tools and then our tools shape us."[iv].

"Deep Learning" se está extendiendo más allá de Internet, poniéndolo dentro de dispositivos que pueden operar en el mundo físico, como los robots ya mencionados, o como los coches autónomos de Google, que pueden reconocer con estos algoritmos y los datos con los que se alimentan, el mundo que los rodea.   

Por si esto no fuera suficiente, además, las máquinas componen letras de canciones. En el artículo "Machine-Learning Algorithm Mines Rap Lyrics, Then Writes Its Own"[v] publicado en mayo de este año por MIT Tecnology Review se puede leer que Eric Malmi y otros compañeros de la universidad de Aalto de Finlandia han creado un algoritmo para reconocer características de algunas letras de rap y elegir otras que rimen con las anteriores y sean del mismo tema. El resultado es un algoritmo que produce letras de rap. Eric y su grupo comenzaron alimentando a su algoritmo para que aprendiera la máquina con una base de datos de más de 10.000 canciones de más de 100 artistas de rap. 

Esto empuja los límites de la creatividad de la máquina hacia la creatividad humana. ¿Y su consciencia? 

¿Acabará la humanidad manipulada por las máquinas para su bienestar, tal como una máquina consideraría dicho bienestar, como lo declara  R.(robot) Daneel Olivaw, en la novela "Fundación y Tierra" de Isaac Asimov, donde explica que ha estado manipulando la humanidad durante miles de años con el fin de protegerla? Para poder hacerlo tuvo que definir y añadirse a sí mismo la llamada ley 0 "Un robot no puede perjudicar a la Humanidad, ni, por omisión, permitir que la Humanidad sufra daño"[vi], para así poder contravenir la primera ley: "Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño". 

Ahora que estamos a tiempo debemos dotar a las máquinas de nuestros valores para que con sus tareas y acciones no produzcan una extinción de la humanidad [vii]. 

* * *

Este artículo fué publicado originalmente por ComunicacionesHoy, nº 148, 16.12.2015. Referencia: VIII Premios ComunicacionesHoy/ Opinión, pg.14 – "El aprendizaje de las máquinas: de lo digital al algoritmo" – María José de la Calle. 

-----------------------------------

[i] "Gartner Identifies the Top 10 Strategic Technology Trends for 2016" url [a 26.11.2015] http://www.gartner.com/newsroom/id/3143521 

[ii] Respuesta Inteligente Doblada. Metz, Cade. WIRED, nov-2015 "Soon, Gmail’s AI Could Reply to Your Email for You" url [a 26.11.2015] http://www.wired.com/2015/11/google-is-using-ai-to-create-automatic-replies-in-gmail/ 

[iii] Hardesty, Larry. "MIT News", jun-2015 "Automatic bug repair" url [a 26.11.2015] http://news.mit.edu/2015/automatic-code-bug-repair-0629 

[iv] "Conformamos nuestras herramientas y ellas nos conforman a nosotros" url [a 26.11.2015] http://www.brainyquote.com/quotes/quotes/m/marshallmc141113.html  

[v] Ref:arxiv.org/abs/1505.04771: DopeLearning: A Computational Approach to Rap Lyrics Generation url [a 26.11.2015] http://www.technologyreview.com/view/537716/machine-learning-algorithm-mines-rap-lyrics-then-writes-its-own/ 

[vi] MIT Tecnology Review, may-2014. "Do We Need Asimov's Laws?" url [a 26.11.2015] http://www.technologyreview.com/view/527336/do-we-need-asimovs-laws/ 

[vii] Conn, Ariel, "future of life", nov-2015. "The Superintelligence Control Problem" url [a 26.11.2015]  http://futureoflife.org/2015/11/23/the-superintelligence-control-problem/ 

 

Redes definidas por software: ¿Y qué no?

Monday, 14 December 2015 Maria Jose de la Calle Posted in iTTi Views

Ya en noviembre del 2008 Lev Manovich [i] en su trabajo "Software Takes Command" -publicado en 2013 por Bloombury en un libro del mismo título-, afirmaba que las marcas globales más reconocidas estaban encabezadas por nombres como Google, Yahoo o Microsoft -en estos momentos quizás habría que sustituir Yahoo por Amazon o Twitter- y si se accedía a la sección de negocios de cualquier medio, las empresas que encabezaban los índices bursátiles en EEUU eran Google y Apple -software (SW)- en una segunda parte, General Electric y General Motors -bienes físicos y energía- y a continuación se encontraba a Intel y Cisco, dos compañías de TI pero que proveen de hardware [ii]. 

En agosto del 2011 Marc Andreessen, en su artículo, "Why Software Is Eating The World"[iii], publicado en el WSJ, abundaba en esta cuestión. Explicaba el fenómeno por la madurez alcanzada por la tecnología requerida para transformar los distintos sectores tanto públicos como privados, a través del SW, después de seis décadas inmersos en la revolución del ordenador, cuatro décadas desde que se inventó  el microprocesador, y dos décadas del moderno internet. Y dicha tecnología se puede distribuir a escala global. 

Las empresas basadas en software, se están "comiendo" negocios tradicionales y están cambiando la manera de consumir los servicios que prestan. Ejemplos como Google con su potente motor de búsqueda que se ha transformado en la mayor plataforma de marketing directo, o Apple con la música y su iTunes, o Amazon como una gran empresa de distribución, o Skype como empresa de telecomunicaciones, por decir algunas, todas ellas basadas en un potente SW. 

No es necesario hacer la lista de los sectores afectados porque son "todos": agricultura, sanidad, defensa, enseñanza, automoción, energía, etc. Incluso las llamadas empresas tecnológicas, como Dell, EMC, HP, y Cisco, o la misma IBM, a  las que la revista WIRED tacha de "muertos vivientes" en un artículo reciente del 12/10/2015 "Dell. EMC. HP. Cisco. These Tech Giants Are the Walking Dead"[iv].

El SW es un ente invisible que está en (casi) todo. Con las aplicaciones leemos, escuchamos música, vemos la televisión, hacemos la compra, nos dirigen a nuestro destino, trabajamos, tomamos decisiones en base a informes elaborados por ellas, nos comunicamos, las cosas se comunican (IoT) y ellas con nosotros, se controla el suministro de agua, gas y electricidad de las ciudades, se controla el vuelo de un misil o de un dron.

Y, paralelo a todo esto, el SW no deja de evolucionar en la llamada la inteligencia artificial o la dotación a las máquinas de la capacidad de aprender.

Por supuesto, y centrándonos en el título del artículo, es el que organiza Internet, dirigiendo los mensajes de email, entregando páginas web de un servidor, controlando el tráfico de red, asignando direcciones IP, y presentando páginas web en un navegador. 

"Redes definidas por SW" o SDN (del inglés, software-defined networking) es un término que, según la definición que nos ofrece TechTarget[v], agrupa varios tipos de tecnologías de red con el objetivo de permitir a los ingenieros y administradores de las redes responder rápidamente a los requerimientos del negocio, sin preocuparse de qué específicos dispositivos estén conectados a qué y sin tocar los switches, desde una consola de control centralizada. Virtualización de redes y automatización a través del SW, es decir, programable. 

Con el SW también se tiene la capacidad de enmascarar la realidad, y no sólo con el dedicado a tratar la fotografía.

Un ejemplo que ha saltado recientemente a las portadas de todos los medios ha sido como Wolkswagen, por medio de un programa de software, detectaba cuando se estaba realizando una prueba de emisiones para, en estos casos, reducir las prestaciones del coche, y así las emisiones contaminantes, para ajustarse a la legislación. Con ello la empresa ahorraba dinero al no añadir elementos adecuados en el motor para reducir en modo conducción real dichas emisiones. Les salía más barato producir el software e implantarlo.

Si tan importante es el SW, ¿se le está prestando la debida atención? Como respuesta a esta pregunta, termino con una cita del mismo trabajo de Lev Manovich con el que empecé este artículo:

"Pienso en el software como una capa que permea todas las áreas de las sociedades contemporáneas. Por lo tanto, si queremos comprender las técnicas contemporáneas de control, comunicación representación, simulación, análisis, toma de decisiones, memoria, visión, escritura e interacción, nuestro análisis no puede estar completo hasta que consideremos esta capa de software."[vi].

* * *

Este artículo fué publicado originalmente por ComunicacionesHoy, nº 147, 10.11.2015. Referencia: Opinión/SDN, pg.26 – "Redes definidas por software: ¿Y qué no?" – María José de la Calle.  

--------------------------------------

[i] url [a 13.10.2015]  https://en.wikipedia.org/wiki/Lev_Manovich 

[ii] "El Software toma el mando". url [a 13.10.2015] http://catedradatos.com.ar/media/Lev-Manovich-El-Software-toma-el-Mando-2008-Introducción-_Estudios-de-Software-para-principiantes-.pdf  

[iii] "Por qué el Software se está comiendo el mundo". url [a 13.10.2015] http://www.wsj.com/articles/SB10001424053111903480904576512250915629460 

[iv] url [a 13.10.2015]  http://www.wired.com/2015/10/meet-walking-dead-hp-cisco-dell-emc-ibm-oracle/?mbid=social_twitter 

[v] url [a 13.10.2015] http://searchsdn.techtarget.com/definition/software-defined-networking-SDN 

[vi] Véase la nota [ii]. 

 

IoT: Cuando las cosas comiencen a pensar

Sunday, 25 October 2015 Maria Jose de la Calle Posted in iTTi Views

Este artículo toma su título del libro "When Things start to Think" [i], sobre el cual Nicholas Negroponte, fundador y primer director del MIT MediaLab, escribió "An important story about why and how computers will disappear, when and where your things will think."

La Internet de las Cosas -o IoT (Internet of Things) para abreviar-, es, según Whatis [ii], un entorno en el cual los objetos están dotados, por una parte, de identificadores únicos y, por otra, de la habilidad de transferir datos a través de una red sin requerir de la intervención humana. 

La "IoT" no es un concepto nuevo. Prueba de ello es el libro que hemos citado. Los ejemplos a nuestro alrededor son crecientes en número: piense en los coches, que gracias a la tecnología GPS -y a las aplicaciones informáticas correspondientes- son capaces de guiarnos hasta nuestro destino; piense en los sensores de los que van dotados esos mismos vehículos, que permiten conocer cualquier deficiencia en su estado y comunicarlo automáticamente al taller; piense en su interacción con otros, sensores urbanos que informan sobre el estado del tráfico sugiriéndonos rutas alternativas o estacionamientos cercanos.

Otro destacado ejemplo lo conforman los objetos que podemos llevar puestos -wearables, por su denominación inglesa-. Objetos cotidianos, como relojes, pulseras, gafas, etc., que, mediante la incorporación de cámaras, micrófonos y sensores diversos se convierten "medidores" de nuestros parámetros biológicos y de nuestro entorno, pudiendo informar sobre el estado de los mismos a través de internet a nuestro centro de salud, como si de los vehículos anteriormente citados se tratara. 

Todos los dispositivos que contribuyen a nuestro bienestar cotidiano -bombillas, electrodomésticos, zapatos, ropa, etc- son susceptibles de estar conectados para proporcionarnos infinidad de servicios adicionales. Los ordenadores, tal y como los conocemos, desaparecen para integrarse dentro de los objetos que están a nuestro alrededor, y la división entre "hardware" y "software", se difumina. Citando nuevamente a Negroponte [iii], el medio para resolver problemas queda embebido en las cosas; "hardware" y "software" se fusionan en un nuevo "softwear". El incremento en disponibilidad de potencia de cálculo está acompañado de una disminución en la visibilidad [iv]. 

Pero conseguir que dispositivos tan heterogéneos como una bombilla o un gran ordenador hablen el mismo lenguaje y sean capaces de entenderse a través de internet, se antoja un importante reto. Para contribuir a superarlo, ya a principios de la pasada década, los investigadores del Centro de Bits y Átomos del MIT, Neil Gershenfeld, Raffi Krikorian y Danny Cohen desarrollaron un protocolo, al que bautizaron como " Internet-0" (I0), que ofrecía una nueva -pero compatible- capa de comunicación por debajo de la existente Internet. Los resultados del proyecto fueron dados a conocer al gran público en la edición de octubre de 2004 de "Scientific American" [v]. 

I0 se definió [vi] como una tecnología de codificación para llevar datagramas-IP sobre cualquier medio físico por medio de impulsos eléctricos, ópticos, de radio o acústicos, que transmitían 0s y 1s de manera análoga a los puntos y rayas del código Morse. Esto aportó  simplicidad e independencia del medio, siguiendo el espíritu de "IP-sobre-todo" -"IP-over-everything"-. 

De ese modo los datos podrían ser enviados a través de un cable, impresos en una página o grabados en una llave, todos utilizando la misma codificación I0.

Además, utilizando I0, la idea original de unir redes de ordenadores en un todo continuo -el "inter" en "Internet"- podía extenderse a redes de todo tipo de dispositivos, un concepto conocido como "interdevice internetworking"; esto es, una red para conectar todas las cosas, en la que todas pudieran intercomunicarse e interoperar. 

* * *

Este artículo fué publicado originalmente por ComunicacionesHoy, nº 146, 25.9.2015. Referencia: Especial/IoT, pg.36 – "IoT: Cuando las cosas comiencen a pensar" – María José de la Calle.  

---------------------------

[i] Gershenfeld, Neil. (1999). "When Things start to Think". Canada: Fitzhenry & Whiteside Ltd.    url [a 25.10.2015]: http://www.amazon.com/When-Things-Start-Think-Gershenfeld/dp/080505880X/ref=mt_paperback?_encoding=UTF8&me= 

[ii] url [a 25.10.2015] http://whatis.techtarget.com/definition/Internet-of-Things 

[iii] "Bits are as insubstantial as the ether, but they tend to be packaged in hard boxes. Hardware and software must merge into softwear." MIT’s Nicholas Negroponte and Neil Gershenfeld write in “Wearable Computing” in Wired (Dec 1995). url [a 25.10.2015] http://www.wired.com/1995/12/negroponte-54/ 

[iv] "one in which the increasing “availability” of processing power would be accompanied by its decreasing “visibility”. Mark Weiser. Extraído de "ITU Internet Reports 2005: The Internet of Things". url [a 25.10.2015] http://www.itu.int/dms_pub/itu-s/opb/pol/S-POL-IR.IT-2005-SUM-PDF-E.pdf 

[v] N.Gershenfeld, R.Krikorian & D.Cohen. "Scientific American", oct-2004, "The Internet of Things". url [a 25.10.2015] http://cba.mit.edu/docs/papers/04.10.i0.pdf 

[vi] url [a 25.10.2015] http://rbeverly.net/research/old/i0/draft-gershenfeld-i0- 00.ps 

 

La presencia de la mujer en la profesión informática. Su contribución desde los inicios.

Sunday, 11 October 2015 Maria Jose de la Calle Posted in iTTi Views

Dedicatoria 

Este artículo está dedicado a tres mujeres con las que tuve la suerte de empezar a trabajar allá por los años ochenta, y que me enseñaron y apoyaron en esos difíciles momentos, así como a todas con las que posteriormente he trabajado a lo largo de mi carrera profesional, mujeres todas ellas muy inteligentes y valiosas, universitarias, pero que no han conseguido llegar a puestos de dirección de las empresas.

Unas, han sido apartadas del mundo laboral con la disculpa de estos tiempos de crisis, otras siguen trabajando pero sin moverse del puesto que vienen ocupando desde hace muchos años, sin promoción ni reconocimiento, cuando muchos de sus (nuestros) compañeros masculinos ocupan puestos más altos, sin razón alguna de valía profesional para descartarlas.

No quiero decir que por ser mujer haya que promocionar a las personas, digo todo lo contrario, que a lo largo de mi carrera profesional he visto un límite que la mujer no ha podido (no la han dejado) sobrepasar. ¿No había ninguna lo suficientemente competente para evolucionar en su carrera?

Todas ellas estaban (están) muy cualificadas ya que si no, ni siquiera hubieran sido contratadas. Además, creían en lo que hacían y, por tanto, aplicaban una pasión y unos criterios de calidad a su trabajo, en la mayoría de los casos ya olvidados.

Ellas han acabado desencantadas de esta creativa y multifacética profesión. Quizás, este es otro motivo de la disminución de estudiantes femeninas en esta disciplina. Es decir, que han visto cómo sus predecesoras más cercanas han realizado un esfuerzo inútil en pro de conseguir una mejora para la posición de la mujer en el mundo laboral a través de la oportunidad que esta nueva profesión ofrecía.

Pero la historia no ha acabado... 

* *

La mujer ha participado desde el inicio en la profesión informática, tal y como se refleja en multitud de casos de mujeres brillantes que han contribuido y están contribuyendo a la profesión objeto de este artículo[i]. Si alguien lo pone en duda, ello será debido a la falta de difusión que se les ha dado, al contrario de lo ocurrido cuando los protagonistas han sido los hombres, o a la apropiación de sus ideas y logros por parte de los participantes masculinos en sus mismos proyectos. 

Las contribuciones que aquí les presento, están, mayoritariamente, relacionadas con funciones de más nivel de abstracción -software- que la propia máquina -hardware-, más relacionadas con las Matemáticas -todos los casos que se relacionan en este artículo son de mujeres que han estudiado Matemáticas- que con la ingeniería; más relacionadas con los modelos que con los artefactos físicos. 

Estas contribuciones han acompañado al desarrollo de los ordenadores desde el principio y han hecho que estas máquinas realizaran las funciones para las que habían sido ideadas. Sin los programas no hubieran sido más que cables y válvulas.

Ha habido muchos intentos de sacar a la luz esta labor poco conocida -y menos reconocida- de las mujeres. Una muy significativa fue la convocatoria realizada en el año 2009 por Suw Charman- Anderson[ii] a todo el que quisiera escribir en su blog, columna de periódico, o cualquier publicación, un artículo el jueves 24 de Marzo sobre mujeres excelentes en tecnología. Esta iniciativa dio origen a la celebración del "Dia de Ada Lovelace"[iii] en conmemoración de los logros de las mujeres en ciencia, tecnología, ingeniería y matemáticas (STEM, del inglés “science, technology, engineering, maths”). Este día ha quedado fijado en los martes que estén a mitad del mes de octubre de cada año -para este año 2015 será el 13-. 

Paradójicamente, a pesar de los esfuerzos realizados por las campañas de difusión y del avance en el acceso a la educación y al trabajo por parte de la mujer , se ha notado un claro retroceso de participación femenina desde los años ochenta tanto en los estudios académicos como en el mundo laboral relacionado con las TI.

Antes de la llegada del ordenador: Ada Lovelace (siglo XIX).

El que al día de la celebración de los logros de la mujer en STEM se le haya dado el nombre de "El Día internacional de Ada Lovelace” no ha sido un capricho. Se considera que Ada Lovelace (1815- 1852) fue la primera persona programadora de computadoras: ¡una mujer![iv].

De la mano de su madre, quien se había formado con profesores de Cambridge en Literatura, Filosofía, Ciencias y Matemáticas, fue educada, a su vez, en Ciencias y Matemáticas. En 1832 conoció a Charles Babbage en una conferencia sobre su “máquina diferencial”, que posteriormente daría lugar a las ideas sobre la “máquina analítica”, un concepto más complejo sobre el cual Babbage nunca publicó nada.

Ada se interesó por la máquina y por su base matemática, y fue la encargada de traducir un artículo del ingeniero italiano, Luigi Federico Manabrea, donde se describía la reciente "máquina analítica" de Babbage. En dicha traducción ella añadió sus propias notas, tres veces más largas que el texto original, explicando cómo la máquina de Babbage funcionaría en el caso de que se construyera. La última nota, la nota "G", era un algoritmo para calcular las tablas de números de Bernoulli. Esta nota está considerada como el primer programa de ordenador, lo que le valió ser recordada como la precursora de esa disciplina.

La traducción junto con las notas fueron publicadas en Taylor’s Scientific Memoirs en 1843[v].

Ada fue, de ese modo, la precursora de la “Ciencia de la Computación”, mucho antes de que se construyera el primer ordenador. En 1979 el Departamento de Defensa de los Estados Unidos dio, en su memoria, el nombre de ADA a un nuevo lenguaje de programación, desarrollado durante aquella década 70 por encargo del propio Departamento.

Los primeros ordenadores y las "codebreakers"

Un salto de 100 años nos acerca a la época de "Colossus”, el primer ordenador electrónico programable, desarrollado por Tommy Flowers y que empezó a operar en diciembre de 1943. Fue construído en Bletchley Park para ayudar a descifrar los mensajes interceptados a los alemanes durante la II Guerra Mundial.

Para hacerlo funcionar se precisaba de un elevado número de operadores y especialistas, lo que supuso que, en los años en que se estuvo trabajando allí (1941-1945), unas nueve mil personas trabajasen en el complejo de las cuales seis mil seiscientas eran mujeres.

El secretismo que rodeó a Betchley durante y después de la guerra hizo que los trabajos llevados a cabo en esta finca, situada a unos 80 kilómetros al norte de Londres -incluidos los de las mujeres que habían tomado parte en ellos- no salieran a la luz, hasta que, en los años setenta, el parque dejó de ser un secreto, revelándose entonces, no obstante, sólo los nombres de cuatro de aquellas jóvenes, reconocidas oficialmente como especialistas en cifra: Margaret Rock (1903-1983), Ruth Briggs (1920-2005), Mavis Lever (1921-2013) y Joan Clarke (1917-1996), esta última como miembro del equipo de Alan Turing que estuvo al frente del descubrimiento del código “Enigma” de la Armada alemana.

Casi cincuenta años después los nombres de estas mujeres todavía no han ocupado el lugar que les corresponde. ¡No habrá sido por falta de tiempo!. En junio del 2014 Betchley Park abrió sus puertas convertido en museo. En él se exhibe, en honor de las mujeres que trabajaron allí, una única fotografía coral en la que, de forma anónima, aparecen muchas de ellas. En cambio sí se pueden observar los retratos personales de Alan Turing, Dilly Knox, Alastair Denniston, Gordon Welchman y así hasta treinta jefes y especialistas en cifra -todos varones, claro-.

El reciente éxito cinematográfico "The Imitation Game” se centra precisamente en la historia del equipo de Alan Turing, que compartió espacio en Bletchley con el equipo de “Colossus”, aunque éste es un aspecto que no aparece en la cinta.

Quién sí aparece, y que constituye la única excepción a esta "amnesia", es la citada Joan Clarke junto a sus compañeros varones, y, como ellos, en calidad de especialista en cifra. Joan había estudiado en la Universidad de Cambridge, donde obtuvo un doble título en Matemáticas; sin embargo, antes de entrar en el equipo de Alan Turing, pese a sus credenciales académicas, le había sido asignado un puesto de secretaria. Su brillantez se evidencia en la rapidez con la que pasó a formar parte del equipo del matemático. 

ENIAC y Las "ENIAC girls"

Casi contemporáneo a “Colossus” pero al otro lado del Atlántico, aparece la ENIAC, (por su nombre en inglés Electronic Numerical Integrator And Computer) calculadora digital de propósito general. Se construyó en la Universidad de Pensilvania como un encargo del ejército de los EEUU, fundamentalmente para el cálculo de trayectorias balísticas. Los que han pasado a la historia como sus creadores, han sido los ingenieros John Presper Eckert y John William Mauchly, a quienes se debe el “hardware”. Sin embargo para realizar los cálculos para los cuales había sido creada se necesitaba algo más, la programación de la máquina. Y de ello se ocuparon 6 mujeres, hábiles matemáticas y lógicas, que iban inventando la programación a medida que la realizaban, las llamadas "ENIAC girls". 

Sus nombres Betty Snyder Holberton (1917-2001), Jean Jennings Bartik (1924-2011), Kathleen McNulty Mauchly Antonelli (1921-2006), Marlyn Wescoff Meltzer (1922-2008), Ruth Lichterman Teitelbaum (1924-1986) y Frances Bilas Spence (1922-2012). 

Es más, la ENIAC se presentó en público el 15 de febrero de 1946, y el programa usado como demostración en la presentación fue el cálculo de una trayectoria y corrió a cargo de Elizabeth Jean Jennings y Elizabeth Snyder. Esta última está considerada como una de las mejores programadoras del grupo y participó poco después en el UNIVAC I contribuyendo al desarrollo del lenguaje C-10, prototipo de los lenguajes de programación modernos. 

A pesar de todo ello, estas mujeres prácticamente no aparecen en los libros de historia de la computación, y fueron silenciadas durante más de cuarente años, aunque se las podía ver en alguna fotografía de la máquina, llegándose incluso a decir hasta la década de los ochenta, que eran sólo modelos que posaban junto a la máquina ("refrigerator ladies"). 

Nadie había programado jamás un computador así y la única herramienta práctica disponible era el diagrama lógico de la máquina. Ellas sentaron las bases para que la programación fuera sencilla y accesible para todos, crearon el primer conjunto de rutinas, las primeras aplicaciones de software y las primeras clases en programación. Su trabajo modificó drásticamente la evolución de la programación entre las décadas de los años cuarente y cincuenta [vi]. 

UNIVAC y Grace Murray Hopper

Siguiendo la pista de los creadores de "Colossus", los ingenieros Mauchly and Presper dejaron la Universidad de Pensilvania y fundaron en 1946 su empresa, "Electronic Control Company", posteriormente rebautizada como "Eckert-Mauchly Computer Corporation" (EMCC), obteniendo financiación para construir otro ordenador, la UNIVAC[vii] (del inglés UNIVersal Automatic Computer) el primer ordenador “mainframe” comercial para aplicaciones de negocio y sector público, y que vio la luz en 1951. 

En 1949 fichan a Grace Murray Hopper (1906-1992), doctora en matemáticas, quien previamente había trabajado en Harvard en el proyecto de computación de la Mark I para la que desarrolló varias aplicaciones contables, siendo, no obstante en EMCC dónde realizó sus más importantes contribuciones a la programación, empezando en 1952 por el primer compilador de la historia, el A- 0, con sus versiones posteriores A-1 y A-2, y a finales de 1956 con el compilador B-0 o FLOW- MATIC, como se le conoció posteriormente, sentando así las bases del COBOL. Si bien es cierto que no participó en su desarrollo, sí lo hizo del comité formado para su creación en 1959 y posteriormente, de los comités de estandarización del COBOL y el FORTRAN. 

Visto en perspectiva, Grace Murray Hopper tuvo más suerte que sus coetáneas en cuanto a proyección pública. Está considerada como la madre del COBOL y, entre los numerosos reconocimientos que posee, está el otorgado en 1969 al ser nombrada "Hombre del año" en ciencias de la computación (Computer Science Man-of-the-Year Award) de la mano de la Data Processing Management Association [viii]. Curioso lo de "Man-of-the-Year". 

Los lenguajes de programación: Jean E. Sammet

En el comité formado para el desarrollo del COBOL, junto a Grace Murray se sentaba otra mujer: Jean E. Sammet (1928), matemática y científica en computación. 

Fué contratada por IBM en 1961 para organizar y gestionar el “Boston Programming Centre” y en 1962 desarrolló el lenguaje de programación FORMAC (FORmula MAnipulation Compiler), un lenguaje para la manipulación de fórmulas y expresiones matemáticas [ix]. 

Su carrera ha estado centrada en los temas de investigación y desarrollo en el área de los lenguajes de programación, llegando, en 1979, a ser “Software Technology Manager"[x] en IBM. Ha sido, asímismo, la primera persona que ha escrito en extensión sobre la historia y clasificación de los lenguajes de programación, publicando en 1969 el libro "PROGRAMMING LANGUAGES: History and Fundamentals". 

Smalltalk y Adele Goldberg

En los años setenta, se desarrolló en el Xerox Palo Alto Research Center (PARC) el lenguaje de programación Smalltalk [xi] así como los conceptos relacionados con la programación orientada a objetos. Una de las personas que formaban parte del equipo liderado por Alan Kay era Adele Goldberg (1945).

Adele Goldberg[xii] se graduó en Matemáticas en la universidad de Michigan y se doctoró en Ciencias de la Computación en la universidad de Chicago. En 1973 comenzó a trabajar en PARC como ayudante de laboratorio, pasando posteriormente a entrar en el “System Concepts Laboratory” donde con Alan Kay y su equipo desarrollaron el Smalltalk. 

En 1988 dejó Xerox y fundó “ParcPlace System”, empresa dedicada a la creación de herramientas de desarrollo para aplicaciones basadas en Smalltalk.

Internet: Radia Perlman, la madre de internet.

Aunque a Radia Perlman no le gusta mucho que la llamen así, ya que, según sus palabras "Esto es excesivo ya que no creo que un solo individuo merezca ser reconocido como el inventor de Internet" [xiii], fué ella la que en 1985, mientras trabajaba para la ya desaparecida Digital Equipment Corporation (DEC) desarrolló el STP (spanning tree protocol), fundamental para permitir la redundancia de caminos en las redes de área local. Este protocolo transformó Ethernet desde una tecnología que podía trabajar solamente con algunos nodos a una distancia reducida, hacia algo que podía crear una gran red, algo indispensable para las comunicaciones en red y, por extensión, para Internet. 

Por la misma época, desarrolló el protocolo que posteriormente ISO adoptó como IS-IS, protocolo de enrutamiento utilizado por muchos de los proveedores de servicios de Internet.

Radia Perlman obtuvo su grado, máster en Matemáticas y título de doctora en Ciencias de la Computación en el MIT. Experta en protocolos de red y en seguridad, a lo largo de su carrera ha desarrollado más de 100 patentes [xiv]. 

Después de su época en DEC, trabajó para Sun Microsystem, dónde desarrolló unas 40 patentes, y en 2010 se unió a INTEL, como responsable de tecnología de redes y seguridad (director of Network and Security Technology).

Últimamente ha estado trabajando en el proyecto TRILL (Transparent Interconnection of Lots of Links), protocolo para la interconexión de centros de datos, que permite el reenvío de paquetes Ethernet utilizando IS-IS en lugar de STP.

Futuro: las estudiantes hoy.

Los ejemplos mostrados constituyen una pequeña muestra -en cantidad, no en calidad- de lo que ha sido, y sigue siendo, la aportación de la mujer a este campo desde sus más tempranos inicios; una aportación que no ha dejado de crecer, alentada por la masiva incorporación femenina a la Universidad durante la segunda mitad del siglo pasado. Pongamos por caso la Facultad de Informática de Barcelona que en la década de los ochenta llegó a tener un alumnado formado en más de un 40% por mujeres, según declaraciones de Nuria Castell, decana de dicha facultad, realizadas el 16 de julio del 2014 para "Womenalia"[xv].

Sin embargo no deja de ser paradójica la inversión de esa tendencia que se observa en la actualidad, justo cuando se han diluido muchísimo las barreras de género a la hora de acceder a la formación y al empleo. Nuria Castell, en la misma entrevista, aporta las siguientes cifras de nuevo acceso femenino a la Facultad de Informática: 10% en el año 2010, 6% en el año 2011, 9% en el año 2012 y 7% en el año 2013, cifras muy lejanas de ese más del 40% antes citado.

Esa misma tendencia se viene observando en EE.UU donde, desde que en 1984 experimentaran un pico histórico del 37 % de mujeres entre los alumnos graduados en licenciaturas relacionadas con las TI, se ha producido un declive llamativo hasta llegar a un 26% en 1998 y a un 12% en 2011. Todo en un momento en el que instituciones tanto públicas como privadas están promoviendo más que nunca campañas e iniciativas para alentar a las mujeres a estudiar ese tipo de disciplinas.[xvi] [xvii].

En el mundo, según el informe "Mujeres programadoras y mujeres hackers"[xviii] publicado en 2011, se viene apreciando, con carácter general, el mismo declive y, a excepción de algunos países asiáticos, el porcentaje de mujeres estudiando y/o trabajando en ámbitos relacionados con las TI es sistemáticamente mas bajo que el de los hombres. No obstante, ha de señalarse que existe una tendencia general a la baja en el número de estudiantes -hombres y mujeres, aunque sobre todo mujeres- que se sienten atraídos por los estudios relacionados con las TI. 

Este llamativo descenso registrado en casi todo el mundo, no responde al hecho, como alguien pudiera pensar, de que la mujer se está replegando a disciplinas "tradicionalmente" reservadas para ella, como las Humanidades. En absoluto. Observando el caso español a través del último informe de "La Universidad en cifras" del año 2012 [xix], se aprecia que el porcentaje de mujeres de entre todos los alumnos que comenzaron el primer año de carreras técnicas en el curso académico 2010/2011 era del 23% solamente. En cambio en Ciencias, el 55% eran mujeres y en Ciencias de la Salud, el 72%. Es decir, Ciencia y Mujer no están reñidos. 

La falta de interés por las TI puede deberse a muchos factores. Uno, que se puede leer en muchos informes y artículos -algunos ya apuntados aquí- es la imagen dada en los medios del joven raro y solitario sólo frente a una máquina, la imagen de personas poco sociables, todo lo contrario a la imagen de la mujer como persona comunicativa. 

Y otro que me atrevería a apuntar es el enfoque actual de los estudios de TI que parecen seguir más los patrones de la Ingeniería -se pasó de "Licenciado en Informática" a "Ingeniero de Informática"- que de la Ciencia. Habría que trasladar el discurso de las TI a la Matemáticas -algoritmos de tratamiento de la información-, de la Física -estado sólido, ordenador cuántico, fibra óptica-, Neurociencia -máquinas que aprenden- etc. tanto que disciplinas base para las TI, y, al mismo tiempo, destinatarias de la contribución de las TI a sus respectivos desarrollos. 

La evolución y crecimiento de las TI conlleva mucho conocimiento interdisciplinar, siendo las propias TI una disciplina que tiene su aplicación en todos los ámbitos de la Sociedad y de las actividades humanas.

Para terminar, mencionar un artículo que Pete Warden publicó en su blog el 5 de octubre del 2014 titulado "Why nerd culture must die"[xx]. En dicho artículo Warden sugiere que tiene que haber muchas cosas equivocadas en un sector -la industria tecnológica en Silicon Valley- tan desequilibrado, como muestra el hecho de que el no de mujeres graduadas en Ciencias de la Computación haya ido disminuyendo drásticamente desde los años ochenta.

Las TI no son los "nerds" de Silicon Valley. Son mucho más. 

* * *

Este artículo fué publicado originalmente por la revista NOVÁTICA, nº 232, abril-junio 2015. Referencia: visiones sobre la mujer en la profesión informática, NOVÁTICA 232, pg. 51 – La presencia de la mujer en la profesión informática. Su contribución desde los inicios – María José de la Calle.  

--------------------------------------------

[i]  Véase la relación que nos ofrece Wikipedia en https://es.wikipedia.org/wiki/Mujeres_en_informática 

[ii] Puede encontrarse la convocatoria en http://www.pledgebank.com/AdaLovelaceDay 

[iii] Ada Lovelace Day: http://findingada.com 

[iv] Véase http://findingada.com/book/ada-lovelace-victorian-computing-visionary/ Consultado feb-2015

[v] Véase https://books.google.es/books?id=0gZ7Bo2NnzAC&pg=PA243&dq=sketch+of+the+analytical+engine&hl=es&sa=X&ved=0CB0Q6AEwAGoVChMIgYr29Li6yAIVSNoaCh1IQw7y#v=onepage&q=sketch%20of%20the%20analytical%20engine&f=false 

[vi] Una buena referencia sobre esta historia, y en la cual me he basado para esta pequeña reseña, es el artículo "ENIAC: una máquina y un tiempo por redescubrir” publicado en Novática-229 julio-agosto de 2013, en página 59 y ss. http://www.ati.es/novatica/2013/224/nv224sum.html  

[vii] Véase https://en.wikipedia.org/wiki/UNIVAC 

[viii] Véase https://es.wikipedia.org/wiki/Grace_Murray_Hopper 

[ix] Véase http://dl.acm.org/citation.cfm?id=808916 

[x] Véase http://www.computer.org/web/awards/pioneer-jean-sammet  

[xi] Véase  http://es.wikipedia.org/wiki/Smalltalk 

[xii] Véase http://en.wikipedia.org/wiki/Adele_Goldberg_(computer_scientist) 

[xiii] "It's overreaching because I don't think any single individual deserves credit for inventing the Internet". Véase http://www.siliconvalleywatcher.com/mt/archives/2011/04/profile_of_radi.php 

[xiv] Véase http://solutionists.ieee.org/radia-perlman/ 

[xv] Véase http://www.womenalia.com/es/hoy-en-womenalia/80-entrevistas/4233-nuria-castell-decana-de-la-facultad-de-informatica-de-barcelona-necesitamos-la-vision-femenina-en-el-sector-tecnologico 

[xvi] Véase http://en.wikipedia.org/wiki/Women_in_computing 

[xvii] Véase http://www.minnpost.com/politics-policy/2008/06/doesnt-compute-more-women-enter-scientific-fields-their-numbers-computer-sci 

[xviii] Véase http://www.rebelion.org/docs/141550.pdf 

[xix] Véase http://www.crue.org/Publicaciones/Documents/UEC/LA_UNIVERSIDAD_ESPANOLA_EN_CIFRAS.pdf 

[xx] Véase http://petewarden.com/2014/10/05/why-nerd-culture-must-die/ 

 

El Sector Público y la Seguridad

Friday, 11 September 2015 Maria Jose de la Calle Posted in iTTi Views

"¿qué nos protege? Supongo que los fundamentalistas religiosos dirían que la fe. Los académicos, que el conocimiento. Los médicos, que la ciencia. El policía, que una pistola de nueve milímetros. El político, que la ley. Pero en realidad, ¿qué nos protege?" ( Katzenbach, John. 2007. "El hombre equivocado"). 

En esta novela el autor cuenta como un hacker a través de la red convierte la vida de una estudiante y su familia en una pesadilla.

El sector público es crítico en este tema, ya que posee información de todo tipo -direcciones y teléfonos, financiera, de salud, de formación, vida laboral, judicial, etc.-, sobre personas y organizaciones, mucha de la cual hay que entregarle por ley, como los datos fiscales o datos de identificación para el NIF o el pasaporte o el carnet de conducir, y otros pueden recabarlos, igualmente apoyados en leyes, de organizaciones con las cuales se tenga una relación contractual, como el banco o el proveedor de servicios de telecomunicaciones.

Dependiendo del tipo de información, la filtración de datos puede afectar a la privacidad y seguridad de las personas, y por ende a sus vidas, como el caso de la protagonista de la novela con la que he abierto el artículo, o al funcionamiento de una empresa.

Son muchas las noticias acerca de pérdidas o filtraciones de datos, o ataques a las instituciones públicas. Wikipedia[i] ofrece un listado de pérdidas de datos del Reino Unido, debido a malas prácticas o descuidos, como pérdida de usb's conteniendo información sin cifrar, o venta de ordenadores en eBay de hospitales sin borrar los datos de pacientes.

El pasado mes de junio se publicó la noticia, de la cual se hizo eco IT Reseller[ii] de un ataque contra el parlamento alemán con nuevas variantes del troyano bancario Swatbanker[iii], que incorporaba funciones de filtro para el dominio “Bundestag.btg”. Cualquier ordenador infectado que accediera a la intranet del Bundestag, transferiría a los atacantes los datos del "cliente", introducidos en formularios, y los datos del navegador, además de las respuestas del servidor, haciéndose tanto con los datos de acceso como con información detallada del servidor. 

Y, también en este mismo mes de junio, un ataque de denegación de servicio a varias web del gobierno de Canadá mantuvo caídos los servicios asociados[iv].

Pero el sector público, además de su función de administrador de los bienes públicos tiene también como función garantizar la seguridad de los ciudadanos para lo que se sirve, entre otros medios, de la información que posee y recoge -supuestamente- dentro de lo que la ley le permite, ley que puede primar en ciertos casos la merma en los derechos de privacidad de los ciudadanos por mor de una mayor seguridad.

Algunos ejemplos ya conocidos serían la "Patriot Act" de Estados Unidos aprobada tras los atentados del 11-S, o la aprobación de una ley este año en el Reino Unido según la cual se pueden llevar a cabo actuaciones de hacking en equipos ajenos, o la interceptación de teléfonos de cualquier persona sin autorización judicial[v]. También, la intención del gobierno británico de prohibir el cifrado fuerte en las comunicaciones[vi], en línea con el director del FBI que argumentó que Apple y Google deben limitar la solidez del cifrado en smartphones para apoyar las iniciativas de aplicación de la Ley de Seguridad Nacional, cosa que a los ciudadanos los hace más vulnerables. ¿Pero no era el objetivo que los ciudadanos estuvieran más seguros?

En este punto y para terminar creo que viene bien una cita de hace 50 años del arquitecto inglés Cedric Price (1934-2003): “Technology is the answer, but what was the question?” 

* * *

[i] https://en.wikipedia.org/wiki/List_of_UK_government_data_losses (último acceso 11/09/2015)

[ii] http://www.itreseller.es/seguridad/2015/06/el-parlamento-aleman-atacado-por-malware (último acceso 11/09/2015)

[iii] http://www.siliconweek.es/security/descubren-un-troyano-que-se-mueve-golpe-de-peticiones-de-pago-y-facturas-irreales-60054 (último acceso 11/09/2015)

[iv] http://www.tripwire.com/state-of-security/latest-security-news/canadian-government-websites-taken-down-in-cyber-attack-anonymous-claim-responsibility/ (último acceso 11/09/2015)

[v] Análisis de la actualidad internacional: “Hacia una Patriot Act del viejo continente: quo vadis Europa?”, de Angel Vallejo y Julia Rubiales – p. 7 http://www.realinstitutoelcano.org/wps/portal/web/rielcano_es/contenido? (último acceso 11/09/2015)

[vi] http://www.businessinsider.com/david-cameron-encryption-back-doors-iphone-whatsapp-2015-7?r=UK&IR=T (último acceso 11/09/2015)

 

El Turismo y la Nube

Monday, 10 August 2015 Maria Jose de la Calle Posted in iTTi Views

El DRAE -Diccionario de la Real Academia Española- nos ofrece para la entrada "Turismo" cuatro acepciones, en la primera de las cuales se define como "Actividad o hecho de viajar por placer", y en la segunda como "Conjunto de los medios conducentes a facilitar estos viajes". 

Y un medio que facilita los viajes es la información acerca de otros medios, como los lugares posibles a los que se puede ir, dependiendo de los gustos y objetivos de quienes vayan a realizar el viaje, el transporte para realizarlo, las estancias, qué visitar -dónde, cuándo, precios, etc-, así como cualquier información complementaria relacionada. 

Esto, desde el punto de vista de la empresa que "vende" viajes tiene un gran interés, primero para conocer los gustos de sus clientes, pasados y futuros, y así poder ofertar por anticipado sus productos, y segundo, para contar con otras empresas, como transportes, hoteles, restaurantes, guías, museos, espectáculos, y un largo etcétera, que configuran la oferta completa. Todo esto conforma un buen ejemplo de la llamada "empresa extendida"[i], a cual en su visión estratégica del negocio tiene en cuenta el resto de elementos que intervienen en la cadena o red logística, desde los proveedores hasta el cliente, sin olvidarnos de los empleados, a través de la tecnología y la implementación de estrategias empresariales que facilitan la comunicación. 

La información -y los datos- hoy día está. Y para que sea útil debe ser entregada de forma completa, precisa, relevante y consistente, y en tiempo. De gestionar todo esto se ocupa el "Big-Data", pero de la entrega, o mejor dicho, de la posibilidad de acceso a dichos datos procesados y puestos de manera que resulten de utilidad, se ocupa, aparte de aplicaciones varias de presentación de la información, lo que hemos dado en llamar Internet, la red de redes, y, de nuevo acudiendo al DRAE, "Red informática mundial, descentralizada, formada por la conexión directa entre computadoras mediante un protocolo especial de comunicación.". 

El "Big-Data" necesita una gran capacidad de proceso y de unos algoritmos que no siempre cualquier empresa se puede permitir. Tecnológicamente hablando, de la mano de la conectividad y la generalización de la banda-ancha, ha surgido un concepto como es el de Computación en la Nube -del inglés, Cloud Computing- que, según Wikipedia, "permite ofrecer servicios de computación a través de internet" y "acceder a un catálogo de servicios estandarizados y responder con ellos a las necesidades de su negocio, de forma flexible y adaptativa". 

Estas son las ventajas que, desde el punto de vista de la empresa de turismo puede tener el servicio de Computación en la Nube: capacidad de almacenamiento, aplicaciones y capacidad de cómputo, a petición, en el momento que se requiera y donde se requiera. En realidad, las mismas que para cualquier organización de cualquier otro sector, pero que en este, por su propia idiosincrasia, los requisitos del negocio hacen más patente la necesidad de plataformas tecnológicas que aglutinen la información y los servicios que las distintas empresas relacionadas y localizadas en todo el mundo prestan y se prestan entre sí, así como la información sobre y para el cliente final, que no es otro que el viajero. 

Los viajes serían más fácilmente personalizables al poder disponer de la información de hoteles, transportes, actividades, etc a golpe de click e interrelacionada. 

Desde la perspectiva del viajero, este llevaría en su mano su agencia de viajes donde encontraría toda la información necesaria antes, durante y después de su viaje, desde donde podría consultar detalles de cada momento y lugar donde se encontrara, resolver dificultades, modificar o ajustar lo previsto inicialmente.

Para terminar, una mirada al futuro y algunos datos proporcionados por el informe del 2014 de la Organización Mundial del Turismo [ii], en el cual podemos encontrar que de 1.087 millones de turistas internacionales que hubo en el 2013, se prevé llegar a 1.800 millones en 2030 y, que actualmente el sector Turismo supone el 9% del PIB y 1 de cada 11 puestos de trabajo, que muestran la importancia económica de este sector, y en el que la tecnología tiene la capacidad de servir de motor de transformación y crecimiento. 

* * *

Este artículo fué publicado originalmente por ComunicacionesHoy, nº 144, julio 2015. Referencia: Análisis/ Opinión, pg. 24 – "El Turismo y la Nube" – María José de la Calle.  

--------------------------------------------

[i] Sobre este tema véase el libro de Ross, Jeanne; Weill, Peter; Robertson, David C. (2006). Enterprise Architecture As Strategy: Creating a Foundation for Business Execution. Harvard Business Review Press. ISBN 978-1591398394.

[ii] "Panorama OMT del turismo internacional". url: http://dtxtq4w60xqpw.cloudfront.net/sites/all/files/pdf/unwto_highlights14_sp_hr.pdf consultado 9/06/2015 

 

"Wearables" y la protección de datos personales

Thursday, 30 July 2015 Maria Jose de la Calle Posted in iTTi Views

"... parece mentira que no hayamos conseguido una navegación segura, que comprar online signifique pasar a formar parte de una base de datos, se quiera o no, o que usar nuestro correo electrónico pueda ser todavia una excelente via de entrada para el malware y los virus".

"El consumidor recibe mensajes del tipo: 'No ejecute aplicaciones peligrosas'... pero ¿cómo puede saber cuáles lo son? ¡Si además, potencialmente, todas lo son realmente!".

                         Radia Perlman "DISI 2008: Adventures in Network Security"[i]

Esto lo decia la Dr. -en Ciencias de la Computación por el MIT- Radia Perlman [ii] en el año 2008, en Madrid con motivo de las jornadas organizadas por la Cátedra UPM (Universidad Politecnica de Madrid ) Applus+ de Seguridad y Desarrollo de la Sociedad de la Información "Dia Internacional de la Seguridad de la Información, DISI". 

A pesar de las leyes de protección de datos, en realidad, tal y como afirma la Dr. Perlman, no somos dueños de los datos que "voluntariamente" dejamos en Internet cuando interactuamos con la Red. Podriamos, por ejemplo, una vez conseguido el objetivo de nuestra interacción, ser capaces de borrar nuestro rastro, si asi lo deseáramos, y no que todo lo que hacemos queda registrado y perdemos el control sobre ello. 

Utilizamos herramientas que no sabemos muy bien que es lo que hacen, además de para lo que se supone que están hechas, y recibimos mensajes ominosos acerca del peligro que podemos correr utilizandolas. 

Y aún hay más. En esta misma sección y en el otoño del 2014 ya apunté, bajo el titulo '"Internet de las cosas” o la peligrosa transformación del mundo real en virtual"[iii], que la conectividad de los objetos cotidianos a internet ampliaba el margen de inseguridad de la vida misma al poder ser “manipulados” de forma remota, ellos mismos o los datos que se intercambian, violando el principio de 'integridad' de la seguridad de la información. 

Un subconjunto de dichos dispositivos lo constituyen los "wearables" o, en español, lo que podemos llevar encima, como relojes, pulseras, gafas, etc., integrando cámaras, micrófonos y sensores que pueden constituir medidores de nuestros parámetros biológicos y de nuestro entorno próximo. Y en el caso de dispositivos como marca-pasos y prótesis activas varias, no sólo medidores, sino actuadores.

A los objetos cotidianos se les provee de más funcionalidades, permiten grabar y transferir datos, están hechos para ser llevados regularmente y para registrar información sobre nuestros propios hábitos y estilos de vida, y, una vez que los datos se almacenan de forma remota, pueden ser compartidos con terceros, a veces sin que la persona afectada sea consciente de ello.

Como ejemplo podemos citar rastreadores de movimiento, indicadores cuantitativos relacionados con la actividad fisica, calorias quemadas o distancias recorridas, pulso u otros indicadores de salud. Estos son datos que se refieren a personas fisicas -nosotros- que se pueden identificar, por tanto son datos personales y como tales hay que tratarlos. Pasamos, entonces a otro principio de la seguridad de la información, el de la 'confidencialidad'.

Las vulnerabilidades de dichos dispositivos entrañan riesgos significativos para nuestra privacidad y, además, dado que los tenemos con nosotros casi permanentemente, puede crear un sentimiento de estar siempre vigilados.

Para paliar estos desafios de privacidad, el órgano consultivo europeo de protección de datos conocido como Grupo de Trabajo del Articulo 29 (GT29/ WP29)[iv] aprobó en el pasado año 2014 el primer Dictamen conjunto sobre internet de las cosas (IoT)[v].

De dicho Dictamen se puede resaltar lo siguiente: 

"Las organizaciones que coloquen la privacidad y protección de datos en la vanguardia del desarrollo de productos, estarán en buenas condiciones para asegurar que sus productos y servicios respetan los principios de privacidad desde el diseño (PbD) y están dotados de la privacidad por defecto de forma amigable, que esperan los ciudadanos de la UE."[vi]

"Los datos personales deben ser recogidos y tratados de manera leal y licita. El principio de equidad requiere especificamente que los datos personales nunca se recojan y procesen sin que el individuo realmente sea consciente de ello. Este requisito es tanto más importante en relación con la IoT al estar los sensores realmente diseñado para no ser invasivos, es decir, tan invisibles como sea posible."[vii]

Debemos dotarnos de una serie de normas para un uso adecuado de la tecnologia y conseguir para todos un acceso digital de calidad en todas las facetas de la vida, apoyando la confianza y la innovación.

Poco a poco ...

* * *

Este artículo fué publicado originalmente por la revista mejicana Magazcitum el 05/07/2015. 

--------------------------------------

[i] Véase el siguiente vídeo: https://www.youtube.com/watch?v=zDyQ5TleDYg 

[ii] A Radia Perlman se la conoce como "la madre de Internet" por su desarrollo en 1985 del STP (spanning tree protocol) y a lo largo de su carrera ha desarrollado más de 100 patentes, muchas de ellas dedicadas a la seguridad en Internet. http://solutionists.ieee.org/radia-perlman/ 

[iii] María José de la Calle. Magazcitum, Oct-2014. http://www.magazcitum.com.mx/?p=2697 / http://www.ittrendsinstitute.org/perspectives/item/internet-de-las-cosas 

[iv] Véase http://www.agpd.es/portalwebAGPD/internacional/Europa/grupo_29_europeo/index-ides-idphp.php 

[v] Véase https://drive.google.com/file/d/0B4ag6tWSZgLVLVZqRlltU3c0R2c/view?pli=1 

[vi] "Organisations which place privacy and data protection at the forefront of product development will be well placed to ensure that their goods and services respect the principles of privacy by design and are equipped with the privacy friendly defaults expected by EU citizens." https://drive.google.com/file/d/0B4ag6tWSZgLVLVZqRlltU3c0R2c/view?pli=1 

[vii] "Personal data should be collected and processed fairly and lawfully. The fairness principle specifically requires that personal data should never be collected and processed without the individual being actually aware of it. This requirement is all the more important in relation to the IoT as sensors are actually designed to be non-obtrusive, i.e. as invisible as possible. https://drive.google.com/file/d/0B4ag6tWSZgLVLVZqRlltU3c0R2c/view?pli=1 

 

Publícitis

To find out more about the cookies we use and how to delete them, see our privacy policy.

I accept cookies from this site.
EU Cookie Directive plugin by www.channeldigital.co.uk