Follow us on:
Perspectives

Articles tagged with: iTTi

Integración de comunicaciones

Monday, 15 February 2016 Maria Jose de la Calle Posted in iTTi Views

La expresión "comunicaciones unificadas", UC (del inglés, Unified Communications) es relativamente nueva con unos antecedentes que podrían localizarse en la mensajería unificada (integración de voz, fax y correo-e). Además, dicha expresión no parece gozar de una acepción comúnmente aceptada; de un lado atiende a diferentes significados dependiendo del mercado al cual se represente; de otro, podría decirse que carece de "estabilidad" por cuanto -como todo lo referido a la tecnología- está en permanente evolución. Consecuentemente, se hace oportuno comenzar por aclarar el sentido de cada uno de los términos que la componen:

- en primer lugar, el sustantivo "comunicaciones" hace referencia a los medios que permiten que se establezca la interlocución, o la transmisión de algún tipo de señal, entre dos extremos, como por ejemplo, el telégrafo, el fax, el teléfono, etc. 

- en segundo lugar, el adjetivo "unificadas" sugiere aquello "que ha recibido unificación", esto es, que ha sido objeto de alguna "acción o efecto de unificar", de "hacer que cosas diferentes o separadas formen una organización, produzcan un determinado efecto, tengan una misma finalidad". 

La finalidad esencial de la comunicación es la de facilitar la transmisión de un mensaje a través de, o con ayuda de, un medio. Con la evolución de la Tecnología estos medios también han ido cambiando, y ampliándose en número, de forma que se ha pasado, en diferentes estadios de dicha evolución, por el teléfono fijo, por el fax, por el ordenador y sus redes, por el teléfono móvil, etc.; los cuales, a su vez, han permitido ser soporte de diversos tipos de mensajes: de voz, de correo-e, de carácter instantáneo, de vídeo, de datos.  

Pero los beneficios de esa variedad de mecanismos (medios) de comunicación y de mensajes, quedan, al mismo tiempo, eclipsados por la necesaria atención que el usuario ha de prestar a, y las diferentes identidades y credenciales que ha de manejar en cada uno de ellos, la dispersión de la información tratada (enviada, recibida, etc) y la falta de disponibilidad, tanto de la propia información como de los medios empleados para transmitirla, que no siempre están al alcance en todo momento y lugar. Solventar estas dificultades será la finalidad de las "comunicaciones unificadas": con ellas podrán utilizarse los diferentes medios para comunicarse, de las distintas formas posibles, con cualquiera,  en cualquier momento y en cualquier lugar, independientemente del dispositivo a utilizar y del formato o formatos en que se encuentre el mensaje. 

El usuario tendrá asociada una única identidad en los diferentes medios y empleará una sola interfaz desde la que podrá revisar sus mensajes de voz, fax, correo-e, etc., o iniciar una conversación con aquellos usuarios conectados, sobre cuya disponibilidad le mantendrá informado, permanentemente, el propio sistema de "comunicaciones unificadas". 

Algunos componentes de este tipo de sistemas serían: la ya mencionada la mensajería unificada; la mensajería instantánea; las herramientas de conferencia y colaboración en tiempo real, que incluyen audio, vídeo, conferencias a través de la web, compartición de espacios de trabajo y pizarras -virtuales-, ficheros, flujos de trabajo, planificaciones, etc.; y la integración con los procesos de negocio, pudiendo iniciar un proceso de comunicación desde dentro de una aplicación, facilitando por ejemplo una notificación o una petición o consulta.  

Si bien, todos estos componentes, por separado, no constituyen novedad alguna, si lo es la integración de todos ellos, integración que conduce a los retos de la compatibilidad y la interoperabilidad de los distintos componentes, y, en última instancia, al de nuevas funcionalidades que a raíz de la integración puedan surgir. Tal es el caso de la posibilidad de iniciar una llamada al autor de un documento que se está revisando, desde el propio documento. 

Las "comunicaciones unificadas" parecen portadoras de importantes ventajas; una, sin duda parece la optimización de los procesos del negocio; sin embargo, cuando se dan situaciones de baja o nula cobertura, aquellos procesos ligados a la necesidad de estar conectados, no funcionarán adecuadamente. Se necesitará, por tanto, tener en cuenta que puedan funcionar con o sin comunicación. Así lo proponía el pasado 8 de enero de 2016 el consultor de la firma Gartner, Robert Desisto, en su "Mobile Offline: Back to the Future".

Finalmente, la gran dependencia que podemos llegar a tener de estas plataformas de comunicación unificada, nos hace más vulnerables como "punto de fallo único", en disonancia con D. Pedro Calderón de la Barca que, en 1629 escribía "casa con dos puertas, mala es de guardar".  

* * * 

Este artículo fué publicado originalmente por ComunicacionesHoy, nº 149, 27-01-2016. Referencia: Especial/Comunicaciones Unificadas. Opinión, pg.32 – "Integración de Comunicaciones" – María José de la Calle.   

--------------------------------------- 

Confianza, seguridad y GCTI

Thursday, 07 January 2016 Maria Jose de la Calle Posted in iTTi Views

Del DRAE:

Confiar: Depositar en alguien, sin más seguridad que la buena fe y la opinión que de él se tiene, la hacienda, el secreto o cualquier otra cosa. 

Confianza: Esperanza firme que se tiene de alguien o algo. 

* *

“Privacy and security are important brand differentiators and companies need to move from a mindset of meeting compliance requirements to becoming a steward of consumer data.”  

[Del correo enviado por Craig Spiezle, Director y fundador de la "Online Trust Alliance" a la NIST el 1 de agosto de 2011]. 

Aunque esta cita ya tiene más de 4 años, el contenido del correo no ha perdido vigencia en absoluto. 

Las brechas de seguridad en todo tipo de organismos, tanto públicos como privados, compañías tecnológicas o de cualquier otro sector, y hasta en empresas dedicadas a desarrollar y vender herramientas de intrusión en los sistemas -como la empresa italiana Hacking Team[i] que en julio de este año -2015- sufrió un ataque divulgándose una gran cantidad de información de clientes-, están pasando a ser consideradas sucesos cotidianos. 

En el individuo esta cotidianidad podría tener, entre otros, dos efectos a cual más nocivo, consecuencias ambos de considerarlos irremediables, y como tales, rendirnos a su inevitabilidad. Uno de ellos sería  dejar de tomar medidas adecuadas para evitar la intrusión, otro sería dejar de utilizar los servicios proporcionados a través de la red, como consecuencia de la pérdida de confianza en los sistemas, y, por extensión, en las empresas que los proporcionan. 

El primer efecto causaría a nivel de dispositivo individual -de hecho está causando por negligencia o ignorancia- daños por virus con efectos de secuestro del contenido del ordenador, cifrándolo y solicitando dinero como rescate (ransomware); o uso por terceros de dispositivos sin permiso del propietario creando redes de ordenadores esclavos (botnets) utilizados posteriormente para actuaciones ilícitas, como por ejemplo ataques distribuidos de denegación de servicios (DDoS, Distribuited Denial of Service); o para entrar en una red de una empresa a través de un dispositivo móvil autenticado; o simplemente robo de información contenida en los dispositivos, importante para el individuo, para la empresa en la que este trabaje o para terceros relacionados con él.

El segundo efecto daría al traste con la digitalización del mercado y los servicios en particular, y de la sociedad de la información en general. 

La Global Commission on Internet Governance  (GCIG) publicó este pasado mes de abril "Toward a Social Compact for Digital Privacy and Security", de lo que se hizo eco iTTi[ii], un importante documento de 29 páginas que, al considerar necesario restaurar la confianza en el uso de internet, proponía que todas las partes interesadas colaboraran en la adopción de normas para un comportamiento responsable de dicho uso.  

Sin embargo, no es sólo cuestión de datos en línea. Hoy día, todos las organizaciones utilizan para su gestión tecnologías de la información aunque no sea en-línea, manejando datos sobre sus trabajadores, asociados, clientes, socios, proveedores, etc. así como los datos producto de la relación establecida con ellos. Y sus sistemas son susceptibles de ser atacados y que estos ataques tengan éxito. 

Por tanto, aunque no se utilicen directamente servicios en-línea, los datos que es necesario proporcionar a una entidad con la que se está estableciendo alguna relación o los datos producto de dicha relación -por ejemplo, los de una prueba médica- se van a almacenar probablemente en un sistema informático. Y este sistema informático es probablemente accesible desde la red. Como se indica en la cita que abre este artículo, "las empresas han de transformarse en administradores de datos" de los terceros con los que se relacionan.  

Los negocios y las instituciones dependen en gran medida de un bien intangible que se llama "marca". La marca de una empresa es como la reputación de las personas. Esta marca está ligada a la confianza -hipótesis que los demás hacen sobre la conducta futura de la empresa- que sepan transmitir. 

Según un estudio, realizado por el instituto Ponemon y publicado el 26/08/2015, para responder a la pregunta "what erodes trust in digital brands?"

- el 63% de los consumidores no confían en las web de compañías que han tenido brechas de seguridad;

- el 55% de los consumidores no confían en webs que no tienen salvaguardas para proteger la información personal;

- el 50% de los consumidores aún después de un año de una brecha de seguridad perciben negativamente una marca;  

- el 69% de los consumidores han dejado webs de compañías por problemas de seguridad.

Aunque este estudio se centra en las páginas web y la marca digital, casi todas las empresas han sufrido o están sufriendo una transformación digital, y tienen página web, a través de la cual ofrecen más o menos servicios y se comunican con sus clientes, siendo, en muchos casos, la página web la generadora -y mantenedora, junto con las redes sociales- de su marca, ya digital. 

Como consecuencia de todo lo anterior, un aspecto que ha entrado de lleno en la imagen de marca de una institución o empresa ha sido la seguridad de sus sistemas informáticos, ya que en ellos residen datos de terceros, y, por tanto, contractualmente o no, deben ser garantes de la seguridad de dichos datos, al haber sido cedidos en la confianza de una relación.  

Enlazando con las definiciones con las que se iniciaba este artículo, los datos se depositan y son confiados sin más que con la buena opinión que se tiene de la empresa -imagen de marca- y en la esperanza firme de que sean tratados adecuadamente para el fin para el que se ceden. 

La seguridad de la información ha pasado de ser un tema "de los informáticos" a ser un tema "de negocio". La posible pérdida o robo de información generados por la aplicación y uso de las tecnologías de la información, especialmente, del "siempre conectados" es un riesgo que ha de gestionarse adecuadamente dentro de la política de gestión de riesgos de la compañía en cuestión, y estar sobre la mesa de su órgano de gobierno. 

Entender la [ciber]estrategia es esencial, pero salvo honrosas excepciones, los temas de [ciber]seguridad -y los temas de TI en general- se tratan principalmente desde un punto de vista técnico, ignorando que sólo un enfoque estratégico puede preparar a las empresas para conseguir ventaja sobre los ciber-atacantes. El órgano de gobierno necesita preguntarse porqué es necesaria la [ciber]seguridad, qué caracteriza las distintas amenazas, cual es el riesgo derivado del uso de las TI, qué nivel de [ciber]seguridad se necesita para disponer de un sistema que funcione y con capacidad para recuperarse de un ataque -resiliencia-[iii]. En resumen, la estrategia para defender el valor y anticipar nuevos escenarios de amenazas. 

En realidad, la decisión de cómo se utilizan las tecnologías de la información y los riesgos asociados, o lo que se ha llamado "Gobierno Corporativo de las TI", debería formar parte de la agenda de dicho órgano de gobierno. En palabras de la Organización Internacional de Normalización (ISO, International Organization for Standardization), el Gobierno Corporativo es “el sistema mediante el cual se dirige y controla el uso actual y futuro de las TI. [...] ... y es un subconjunto del gobierno de la organización o del gobierno corporativo.”[iv] 

* *

En iTTi, prestamos atención preferente al gobierno corporativo de las tecnologías de la información por quien tiene, en las empresas y organismos, la obligación y potestad para ejercerlo; esto es, por quien tiene la responsabilidad última de decidir sobre la aplicación y uso de dichas tecnologías en el ámbito de la organización: el Órgano de Gobierno (Consejo de Ministros, Consistorio, Consejo de Administración, Patronato, Rectorado, …, según el caso).

Ese Órgano de Gobierno ha de ocuparse, además, de identificar a todos los ‘interesados’ (incluidos sus intereses y demandas).

* *

No nos vamos a quejar si las TI se sientan en el consejo aunque sea de la mano de la seguridad ... 

* * *

Este artículo fué publicado originalmente por @PuntoSeguridad.com/"Cuadernos de Seguridad", dic-2015, nº 306, pg.57, Ciberseguridad – "Confianza, seguridad y CGTI" – María José de la Calle.  

-----------------------------------

[i] url [a 2015.10.04] http://politica.elpais.com/politica/2015/07/07/actualidad/1436284983_731864.html 

[ii] Palao, Manolo. "Hacia un nuevo contrato social sobre la privacidad y seguridad digitales", abril, 2015. url [a 2015.10.04]: http://www.ittrendsinstitute.org/perspectives/item/nuevo-contrato-seguridad-digital.  

[iii] url [a 2015.10.18]: https://blogs.mcafee.com/executive-perspectives/fighting-fire-fire-will-lead-us-dangerous-future/  

[iv] "ISO/IEC 38500:2015 applies to the governance of the organization's current and future use of IT including management processes and decisions related to the current and future use of IT. [...] ... defines the governance of IT as a subset or domain of organizational governance, or in the case of a corporation, corporate governance."

url [a 2015.10.23]: http://www.iso.org/iso/home/store/catalogue_ics/catalogue_detail_ics.htm?csnumber=62816  

 

El aprendizaje de las máquinas: de lo digital al algoritmo.

Thursday, 07 January 2016 Maria Jose de la Calle Posted in iTTi Views

Una de las tendencias que Gartner identifica para el 2016 es el aprendizaje avanzado de las máquinas en base a las llamadas redes neuronales profundas (deep neural nets o DNNs), sistemas que pueden aprender de forma autónoma para entender el mundo. Posibilitan el autoaprendizaje de todas las características de su entorno. Las organizaciones deben evaluar cómo aplicar estas tecnologías para ganar ventaja competitiva [i]. 

Continuando con el futuro dibujado por Gartner, los algoritmos definirán el futuro de la empresa. En una empresa algorítmica, la mayor parte de lo que sucede se producirá en el trasfondo de la empresa, a través de máquinas inteligentes, sin que las personas estén directamente implicadas. Evolucionaremos a un mundo post-app, con agentes inteligentes proporcionando dinámicamente interfaces y realizando acciones contextuales como, por ejemplo, lo que Gartner llama asistentes personales virtuales (virtual personal assistants o VPAs). 

De la empresa digital a la empresa algorítmica.  

Un ejemplo de asistente personal es la herramienta que acaba de hacer pública Google, llamada "Dubbed Smart Reply (DSR)"[ii] con la cual un dispositivo con servicio de correo podría responder automáticamente correos-e. De momento, la herramienta propone 3 breves respuestas de las cuales se puede elegir una y, si se quiere, completarla o modificarla. DSR aprende analizando gran cantidad de correos-e del servicio Gmail de una vasta red de ordenadores, las redes neuronales a las que hace referencia Gartner, llamadas así por su funcionamiento análogo a las redes neuronales de nuestro cerebro. Las redes analizan la información en base a algoritmos para aprender una tarea concreta, en este caso entender los correos y ser capaces de responderlos. 

Estos algoritmos, llamados "Deep learning", provienen de la Inteligencia Artificial (IA) de los años 80, pero es ahora con la vasta de red de comunicaciones y la enorme cantidad de datos de los que se dispone que se les está sacando todo su potencial  y  que está haciendo evolucionar rápidamente un amplio rango de servicios online, como el reconocimiento del habla en el teléfono, la traducción instantánea en Skype, el reconocimiento de caras en las imágenes que se suben a la red, las recomendaciones de cosas que nos pueden gustar o amigos que podemos hacer, al fin y al cabo campos tradicionales de la IA -reconocimiento de voz, reconocimiento de imágenes, textos- y a la robótica, con un único modelo de aprendizaje. 

Las máquinas aprenden por medio de algoritmos inspirados en cómo se cree que funciona nuestro cerebro, que son capaces de tratar grandes cantidades de datos estructurados y no estructurados, y que no tienen limitaciones teóricas sobre lo que pueden llegar a hacer. De cuantos más datos se les provea o las máquinas mismas recojan, y cuanto más largo sea el tiempo de cálculo, mejores resultados conseguirán. Por ejemplo, analizando gran cantidad de palabras habladas, pueden aprender a reconocer las órdenes dadas por voz a un teléfono. 

Y ya no habrá que escribir instrucciones precisas en las que decir a las máquinas lo que tienen que hacer, dependiendo de las situaciones tomarán decisiones en una u otra dirección sin que se les haya dado dichas instrucciones expresas escritas en un programa. 

En realidad, es nuestra forma de aprender, absorbiendo datos y situaciones desde que nacemos, creando patrones y aplicándolos a nuevas situaciones -con mayor o menor fortuna-. 

De momento, tenemos que seguir escribiendo y manteniendo máquinas con viejos y nuevos algoritmos, ¿pero por cuánto tiempo? En un artículo [iii] publicado por MIT el 15 de junio de 2015, Larry Hardesty explicaba que investigadores del MIT habían presentado  un nuevo sistema para reparar errores peligrosos de software (SW) importando funcionalidades de otras aplicaciones más seguras. En el mismo artículo se indicaba que existen "toneladas" de código fuente disponible en repositorios open-source, millones de proyectos, y una gran cantidad de estos proyectos implementan funcionalidades similares o tienen componentes con funcionalidades comunes. El sistema toma las mejores componentes que encuentra. 

Con estas toneladas de código las máquinas podrían aprender no sólo a arreglar un error, sino a programar[se] nuevas funcionalidades.  

Las máquinas ya saben leer y escribir, pueden interpretar lo que oyen -los dictáfonos, traductores, etc-, sus cámaras no sólo registran lo que ven, sino que lo interpretan -búsquedas en Google de texto a partir de imágenes o búsquedas de imágenes a partir de texto-. 

Primero fueron las herramientas para realizar actividades que nuestros músculos no podían, es decir, realizar actividades físicas, pero manejadas con energía muscular; estas evolucionaron hacia máquinas-herramientas cuyo movimiento sería autónomo a base de motores impulsados por energía térmica, hidráulica o eléctrica pero dirigidos por nuestro cerebro; posteriormente, llegaron las máquinas dirigidas por instrucciones residentes en las propias máquinas, las máquinas programables con programa almacenado, que eran -y son- capaces de realizar otro tipo de actividad, más de la mente que de los músculos, actividades automatizables y repetitivas que responden a algoritmos matemáticos. Llegó la revolución del SW. 

Al mismo tiempo que las máquinas-herramientas evolucionaban, evolucionaba el trabajo, de un trabajo con los músculos a un trabajo con la mente, de generar valor con los músculos a generar valor con la mente, lo que podríamos llamar el trabajo del conocimiento. 

Y la evolución del SW, y por ende, la evolución de lo que las máquinas pueden hacer, continúa. Ahora las máquinas están aprendiendo de todo lo que les rodea, con lo que las estamos dotando, también, de capacidad de generar valor con su mente artificial. Este valor generado por las máquinas es el que tenemos que saber utilizar para, a su vez generar más valor. Viviremos y trabajaremos con ellas en nuestro beneficio y ellas nos irán redefiniendo a nosotros. Como afirmó Marshall McLuhan (1911-1980) sociólogo canadiense "We shape our tools and then our tools shape us."[iv].

"Deep Learning" se está extendiendo más allá de Internet, poniéndolo dentro de dispositivos que pueden operar en el mundo físico, como los robots ya mencionados, o como los coches autónomos de Google, que pueden reconocer con estos algoritmos y los datos con los que se alimentan, el mundo que los rodea.   

Por si esto no fuera suficiente, además, las máquinas componen letras de canciones. En el artículo "Machine-Learning Algorithm Mines Rap Lyrics, Then Writes Its Own"[v] publicado en mayo de este año por MIT Tecnology Review se puede leer que Eric Malmi y otros compañeros de la universidad de Aalto de Finlandia han creado un algoritmo para reconocer características de algunas letras de rap y elegir otras que rimen con las anteriores y sean del mismo tema. El resultado es un algoritmo que produce letras de rap. Eric y su grupo comenzaron alimentando a su algoritmo para que aprendiera la máquina con una base de datos de más de 10.000 canciones de más de 100 artistas de rap. 

Esto empuja los límites de la creatividad de la máquina hacia la creatividad humana. ¿Y su consciencia? 

¿Acabará la humanidad manipulada por las máquinas para su bienestar, tal como una máquina consideraría dicho bienestar, como lo declara  R.(robot) Daneel Olivaw, en la novela "Fundación y Tierra" de Isaac Asimov, donde explica que ha estado manipulando la humanidad durante miles de años con el fin de protegerla? Para poder hacerlo tuvo que definir y añadirse a sí mismo la llamada ley 0 "Un robot no puede perjudicar a la Humanidad, ni, por omisión, permitir que la Humanidad sufra daño"[vi], para así poder contravenir la primera ley: "Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño". 

Ahora que estamos a tiempo debemos dotar a las máquinas de nuestros valores para que con sus tareas y acciones no produzcan una extinción de la humanidad [vii]. 

* * *

Este artículo fué publicado originalmente por ComunicacionesHoy, nº 148, 16.12.2015. Referencia: VIII Premios ComunicacionesHoy/ Opinión, pg.14 – "El aprendizaje de las máquinas: de lo digital al algoritmo" – María José de la Calle. 

-----------------------------------

[i] "Gartner Identifies the Top 10 Strategic Technology Trends for 2016" url [a 26.11.2015] http://www.gartner.com/newsroom/id/3143521 

[ii] Respuesta Inteligente Doblada. Metz, Cade. WIRED, nov-2015 "Soon, Gmail’s AI Could Reply to Your Email for You" url [a 26.11.2015] http://www.wired.com/2015/11/google-is-using-ai-to-create-automatic-replies-in-gmail/ 

[iii] Hardesty, Larry. "MIT News", jun-2015 "Automatic bug repair" url [a 26.11.2015] http://news.mit.edu/2015/automatic-code-bug-repair-0629 

[iv] "Conformamos nuestras herramientas y ellas nos conforman a nosotros" url [a 26.11.2015] http://www.brainyquote.com/quotes/quotes/m/marshallmc141113.html  

[v] Ref:arxiv.org/abs/1505.04771: DopeLearning: A Computational Approach to Rap Lyrics Generation url [a 26.11.2015] http://www.technologyreview.com/view/537716/machine-learning-algorithm-mines-rap-lyrics-then-writes-its-own/ 

[vi] MIT Tecnology Review, may-2014. "Do We Need Asimov's Laws?" url [a 26.11.2015] http://www.technologyreview.com/view/527336/do-we-need-asimovs-laws/ 

[vii] Conn, Ariel, "future of life", nov-2015. "The Superintelligence Control Problem" url [a 26.11.2015]  http://futureoflife.org/2015/11/23/the-superintelligence-control-problem/ 

 

¿Por qué algunos ejecutivos son los que motivan las malas prácticas en seguridad de la información?

Thursday, 24 December 2015 iTTi, Innovation & Technology Trends Institute Posted in IT Consequences

¿Qué es lo que ellos hacen diferente, que no es compatible con las prácticas de seguridad de la información? 

Introducción

Estas preguntas rondan con frecuencia los pensamientos de muchos ejecutivos de seguridad de la información. Inquietudes que pueden tener muchas interpretaciones y reflexiones como quiera que mucha de la apropiación de la práctica de seguridad de la información de una empresa, se lee desde el ejemplo de los miembros de la alta gerencia.

Si quisiéramos explicar un poco este comportamiento, que es el más reiterado y documentado en varios estudios, habría que ver un poco la dinámica de estos dirigentes, donde las actividades diarias asociadas con la atención de reuniones, las responsabilidades propias del cargo y la necesidad de agilidad en sus decisiones (para lo cual requieren acceso expedito a información, muchas veces privilegiada) establecen un referente básico de revisión y análisis de las prácticas de seguridad y control de estos directivos. 

Atender las reuniones

La agenda en general de los directivos de una empresa  está colmada de reuniones, para lo cual requieren información permanente, que le permita documentarse sobre el tema y tener una vista general para poder establecer alguna postura. En este ejercicio, interviene no solamente el ejecutivo, sino sus asistentes, los cuales ubican la información y preparan lo pertinente para efectos de documentar a su superior para la reunión.

Esta interacción delega de forma sutil en los asistentes la responsabilidad del manejo y control de la información, pues su papel fundamental no está en el control de los datos requeridos para tomar una decisión, sino en el uso que éste (el ejecutivo) le da para poder participar de las conversaciones previstas en los niveles adecuados de la organización. En este escenario, al recibir información (particularmente restringida o reservada) el ejecutivo no advierte o muchas veces ignora su nivel de sensibilidad, generando vectores de pérdida y/o fuga de información, que terminan con exposición de datos de forma no intencional. 

Considerando lo anterior, se hace necesario encontrar espacios de conversación con los directivos de las empresas, no para recordarles lo sensible de la información que manejan, sino los impactos que puede generar el inadecuado manejo de la información, los cuales afectan no solo la imagen de la empresa, sino que habla de las prácticas personales del ejecutivo sobre su tratamiento.

No obstante, para aquellos casos donde aun teniendo el conocimiento concreto del nivel de confidencialidad y la advertencia propia de los estándares corporativos sobre el particular, no se toman los recaudos del caso, deben aplicarse las consecuencias prevista en el contexto del gobierno corporativo, sobre el deber de cuidado propio de las juntas directivas y cuerpos de dirección, donde existe por definición indicaciones para temas específicos como el “silencio de oficio”. 

Responsabilidades del cargo

Generalmente cuando un ejecutivo es contratado por una organización, pocas veces recibe entrenamiento sobre los protocolos del tratamiento de la información de la empresa. Se deja a la buena intención e intuición del nuevo directivo la forma como debe tratarse los datos, que por ocasión de su cargo, va a tener acceso.

Sin perjuicio de lo anterior, las descripciones de cargo por lo general incluyen algunos elementos propios de la protección de la información, los cuales son algunas veces pasados por alto por los ejecutivos, concentrándose en aquellos temas medulares de su especialidad, donde particularmente esperan que genere valor para la empresa. Si bien esto puede ocurrir, no está de más que la empresa motive prácticas de seguridad y control que le recuerden a los directivos, el activo estratégico que tienen en sus manos; no solamente en formato físico, sino electrónico y de forma conversacional.

Cuando un ejecutivo asume su cargo, debe pensar no solamente en la responsabilidad que asumen al llegar a esa posición, sino lo que conlleva el tener acceso a la información y sus actuaciones tanto dentro como fuera de la empresa. 

Una conversación de ascensor, un documento en preparación ajustado en un aeropuerto, una pérdida de una tableta o un teléfono inteligente, dejan de ser situaciones aisladas y se convierten en verdaderos eventos que ponen en riesgo la imagen de la empresa, sin contar las posibles implicaciones jurídicas que se puedan presentar por el tipo de información que se puede exponer. 

Agilidad en las decisiones

La dinámica de los ejecutivos modernos los obliga a llevar una vida en movimiento, conectados y en permanente actualización. Una vida agitada claramente poco saludable como quiera que descuidan aspectos propios de su dieta y condiciones personales, temas que escapan al alcance de esta reflexión.

En este escenario, el tratamiento de la información se vuelve un elemento sensible de su actividad, particularmente aquella a la cual tiene acceso para participar de las decisiones propias de la empresa. Contar con mecanismos de seguridad instalados en sus dispositivos les puede generar, a algunos, contratiempos y demoras para acceder a aquello que necesitan; pero a otros, los motiva pues saben que tienen una forma para demostrar su cuidado y control en el eventual caso que se produzca una brecha de seguridad de la información.

Cualquiera sea la postura que asuma el directivo, deberá saber que él se constituye en garante de la información que recibe y maneja; esto es, una representación “casi legal” de la empresa, que le exige el máximo cuidado y control sobre un activo estratégico, donde la organización sabe que tiene un deber legal de cuidado y que el mismo, es transferido a sus ejecutivos cuando se comparte para adelantar las actividades del gobierno corporativo.

Reflexiones finales

Luego de revisar los tres elementos anteriores tenemos algunas pistas para tratar de responder las preguntas. Si las vemos desde los ejecutivos, la exigencia es que: 

los mecanismos de seguridad y control deben ser prácticamente “invisibles”, es decir no deben notarse, pues así es posible conjugar la agilidad que se requiere y la protección que se necesita. 

Si la vemos desde los oficiales de seguridad de la información, la respuesta es en

la concienciación de los ejecutivos sobre el tratamiento de la información y la forma como estos deben asegurar sus prácticas dentro y fuera de la empresa. 

Una vista que si bien se ajusta a las responsabilidades que estos oficiales tienen, se enfrenta a las necesidades particulares de los ejecutivos.

Conciliar estas dos posiciones, requiere necesariamente de un tercero que dirima y disponga de una declaración empresarial que ambos actores lean con claridad y acepten de conformidad. Si la decisión favorece a los ejecutivos y sus demandas, el área de seguridad de la información estará motivada a desarrollar cada día estrategias más automáticas, que necesariamente exigirán importantes inversiones tecnológicas. Si la decisión favorece al oficial de seguridad de la información, los ejecutivos deberán adoptar nuevas prácticas de protección que cambien sus hábitos y actitudes respecto del uso de la información, haciendo evidente las responsabilidades propias de su tratamiento.

Si la decisión no está en ninguno de los dos lados, sino que es una postura que toma lo mejor de ambos escenarios, se hace necesario que aquel que arbitra la problemática, 

Abra un espacio de conversación donde cada parte indique qué puede ceder y que no, para que se establezca una puente de comunicación donde se comparta, no solo la necesidad de agilidad y protección, sino el cambio de actitud y responsabilidad por el adecuado tratamiento de la información. 

Si bien este documento no busca agotar las consideraciones sobre las preguntas que motivaron esta reflexión, si quiere provocar conversaciones entre los interesados para continuar abriendo espacios donde confluyan los intereses tanto de los ejecutivos como de los oficiales de seguridad, que en últimas beneficien a la empresa como un todo. 

* * *

Jeimy Cano, PhD, CFE, es Director de la Revista "Sistemas" de la Asociación Colombiana de Ingenieros de Sistemas (ACIS). El Prof. Cano es, además, Analista Asociado de iTTi. 

Este artículo fue publicado inicialmente en el servicio Pulse de LinkedIn, el 10 de  diciembre de 2015, en la dirección https://www.linkedin.com/pulse/por-qué-algunos-ejecutivos-son-los-que-motivan-las-en-jeimy 

----------------------------------

Referencias 

International Chamber of Commerce (2003) Information security assurance for executives. Recuperado de: https://www.intgovforum.org/cms/documents/contributions/general-contribution/2009-1/329-information-security-executives/file 

Veracode (2015) Cyber-Related Corporate Liability is Top of Mind for Boards and Executives. Recuperado de: http://www.informationsecuritybuzz.com/study/cyber-related-corporate-liability-is-top-of-mind-for-boards-and-executives/ 

PricewaterhouseCoopers (2015) The Global State of Information Security® Survey 2016. Recuperado de: http://www.pwc.com/gx/en/issues/cyber-security/information-security-survey/key-findings.html 

Information Security Magazine (2011) Security Education: A Lesson Learned? Recuperado de: https://www.infosecurity-magazine.com/magazine-features/security-education-a-lesson-learned/ 

Monteleone, F. (2015) Effective information security governance: executive support a must. Recuperado de: http://www.dataprivacyandsecurityinsider.com/2015/07/effective-information-security-governance-executive-support-a-must/ 

 

Alcanzar la cumbre

Wednesday, 09 December 2015 iTTi, Innovation & Technology Trends Institute Posted in Corporate Governance of IT

Con seguridad, no hay mayor anhelo para un alpinista que alcanzar la cumbre; mejor aún, las cumbres. Prueba de ello es el atractivo que han despertado, y siguen despertando, los catorce “ochomiles” del Planeta, a cuyas cimas sólo unos pocos privilegiados han podido llegar. Desde la atalaya que nos ofrece nuestra posición de mero espectador (la cota es mucho menor, en este caso), apenas alcanzamos a comprender el esfuerzo de semejantes aventuras. No obstante, sí reconocemos la satisfacción que las mismas han debido provocar en sus protagonistas, por cuanto de logro personal deben haber supuesto. Es la misma admiración con la que observamos otro tipo de cumbres...

La primera de ellas tuvo lugar el 11 de junio de 2014 [i], en el escenario ofrecido por el hotel “Sofitel Chicago Water Tower”. Ese día, la estadounidense Asociación Nacional de Consejeros de Empresa (National Association of Corporate Directors, NACD), a la que hemos alabado reiteradamente desde esta tribuna, organizaba su primera “Cumbre sobre Ciberriesgo” (Cyber Risk Summit). 

Sólo un día antes, el 10 de junio, la Bolsa de Nueva York había sido testigo de la intervención de D. Luis A. Aguilar, Comisario de la SEC (Security and Exchange Commission), el organismo regulador de los mercados en EEUU. Probablemente, en aquellos momentos, el propio Sr. Aguilar distaba mucho de adivinar la trascendencia que iba a alcanzar su conferencia “Consejos de Administración, Gobierno Corporativo y Ciberriesgos: Agudizar el Foco”[ii], en la medida en que iba a ser ampliamente citada con posterioridad. Sirva como ejemplo su “Los consejos que optan por ignorar, o minimizar, la importancia de su responsabilidad sobre la supervisión de la ciberseguridad, lo hacen por su cuenta y riesgo”, frase que ha sido empleada como argumento por numerosos autores y conferenciantes en ocasiones posteriores [iii], como lo hacemos nosotros ahora. 

La NACD imprimió a aquella primera cumbre (volvería a hacerlo después) un carácter educativo, al establecer como objetivo su intención de dotar a los consejeros de las empresas estadounidenses de las habilidades necesarias para aplicar unos principios orientados a prevenir, detectar, responder a, y mitigar los ciberriesgos. 

La premisa de partida fue reconocer la existencia de un nuevo mundo (acaso “Un Mundo Feliz”), como ya señalara la propia NACD en su programa “La Intersección entre Tecnología, Estrategia y Riesgo”[iv] lanzado en mayo de ese mismo año, que ponía sobre la mesa una serie de retos para el gobierno corporativo y la actividad supervisora de los consejos de administración.

La buena acogida de aquella primera iniciativa llevó a la NACD a repetir la experiencia en 2015. No obstante, esta vez no sería en solitario: la Red Global de Institutos de Consejeros (Global Network of Director Institutes, GNDI) la acompañaría como co-organizadora del evento; aportando, además, el nuevo adjetivo a la renombrada “Cibercumbre Global 2015”[v]. 

Con el propósito de desmitificar la ciberseguridad entre la comunidad de consejeros, los tres días del encuentro (15 a 17 de abril) dieron para mantener jugosos debates sobre el actual panorama de amenazas y las implicaciones para la función supervisora de los consejos de administración.

En el momento en que se publica esta “Referencia Autorizada” la NACD está anunciando la tercera entrega de la serie: su “Cibercumbre 2016”[vi], que tendrá lugar el próximo 15 de junio. Bajo el acentuado escenario actual de amenazas, la nueva edición centrará sus mensajes en la promoción de la ciberresiliencia y en la supervisión, sin complejos por parte de los consejeros, de los ciberriesgos que acechan a sus organizaciones. Una llamativa novedad que llegará, también, con la próxima edición será la expedición de los primeros “Cibercertificados de la NACD”, con los que ésta premiará la asistencia, el compromiso y la mejora en el desarrollo profesional de los consejeros que asistan a la cita. 

Permítannos, para finalizar, reafirmarnos en nuestra recurrente idea de que nada “encumbra” más a la NACD, entre las entidades de su género, que su permanente apuesta por la promoción de las disciplinas “ciber” | “digitales” entre su comunidad de miembros; y por elevarlas a la categoría de temas para la agenda del consejo de administración. 

Y ahora sincérese: como consejero, la organización que lo representa a Ud., ¿se ha planteado, siquiera, encarar la cumbre o sigue alejada de las más crudas y cotidianas realidades corporativas de hoy? 

* * *

Este artículo fué publicado originalmente por la revista NOVÁTICA, nº 233, julio-septiembre 2015. Referencia: Ref. Autoriz. NOVÁTICA 233, pg. 74 – "Alcanzar la cumbre" – Miguel García-Menéndez, Manuel Palao.  

--------------------------------------

[i] NACD. Programa del “Cyber Risk Summit 2014”. 11 de junio de 2014.

[ii] Luis A. Aguilar. Conferencia “Boards of Directors, Corporate Governance and Cyber-Risks: Sharpening the Focus”. Bolsa de Nueva York, 10 de junio de 2014.  url: http://www.sec.gov/News/Speech/Detail/Speech/1370542057946. Último acceso: 8-11-2015.

[iii] Una búsqueda en Google de la cadena “Boards that choose to ignore, or minimise the importance of cybersecurity oversight responsibility, do so at their own peril” (sin comillas) arroja más de doscientas mil referencias. 

[iv] NACD. El programa divulgativo “The Intersection of Technology, Strategy and Risk” fue lanzado por la NACD, el 1 de mayo de 2014, como una video-serie de entrevistas a consejeros y expertos en tecnología, innovación y gestión de riesgos tecnológicos. La asociación profesional ISACA y la firma de servicios profesionales KPMG, acompañaron a la NACD en la iniciativa.

[v] GNDI y NACD. Nota de prensa de la “Global Cyber Summit 2015”. 16 de abril de 2015. url: https://www.nacdonline.org/AboutUs/PressRelease.cfm?ItemNumber=13929. Último acceso: 8-11-2015. 

[vi] NACD. Página de inscripción a la “Cyber Summit 2016”. https://www.nacdonline.org/conference/. Último acceso: 8-11-2015.

 

[Ciber]Armas de difusión masiva

Friday, 04 December 2015 Miguel Garcia-Menendez Posted in iTTi Views

Una imagen vale más que mil palabras

El brutal atropello -sorprendentemente no mortal- de Mario Valencia [i] por parte del agente de policía de Arizona, EE.UU., Michael Rapiejko, ocurrido el 19 de febrero de 2015; la muerte de Eric Courtney Harris [ii] provocada, supuestamente de manera accidental, por el veterano ayudante del sheriff de Tulsa (Oklahoma, EE.UU.), Robert Bates, el pasado 2 de abril de 2015; o la ejecución de Walter L. Scott [iii], dos días después, el 4 de abril, a manos del agente de policía Michael T. Slager, en North Charleston (Carolina del Sur, EE.UU.), han formado parte del sumario de los noticieros televisivos de medio mundo, ampliando un ya notable registro de lamentables acontecimientos similares [iv],[v]. 

Un elemento común a todos los casos citados: la omnipresencia de “lo digital”; más concretamente, de la tecnología de video digital, que se ha integrado en todo tipo de dispositivos, desde equipos de bolsillo (teléfonos o similar, lo que nos ha permitido conocer de primera mano el caso Scott), hasta aparatos electrónicos corporales (wearables, según su denominación inglesa, del estilo de las minicámaras que llevan como parte de su equipo los más vanguardistas agentes de la ley y que nos han convertido en testigos directos de los casos Valencia y Harris). 

En cualquiera de estas dos variantes, “lo digital” vuelve a mostrarse disruptivo; en esta ocasión en relación a una actividad pública como lo es la policial. Y ello, por cuanto va a modificar, si no está haciéndolo ya, algunos de los más reprochables usos y costumbres de la citada actividad. 

Mientras se determinan los pros y contras del despliegue de minicámaras entre las fuerzas del orden -en el lado de los beneficios, la materialización de una nueva estrategia pública de mejora en la rendición de cuentas y de una mayor transparencia; en el lado de las desventajas, la complejidad y coste derivados de la gestión y tratamiento de la ingente cantidad de datos de video recabados- el uso de esta tecnología va configurando un nuevo escenario para el enfrentamiento, para el ataque y la defensa; va abonando el terreno para viejos conflictos, como las protestas sociales, habilitados por nuevos medios: los digitales. 

En toda confrontación los medios materiales y físicos que la hacen posible constituyen su armamento. Las herramientas digitales no son una excepción. Son las nuevas “ciberarmas” empleadas, como se ha apuntado, tanto en la defensa, como en el ataque.

En el plano defensivo, las agencias policiales dotan a sus miembros de cámaras corporales, entre otros motivos como garantía de “higiene profesional”, de aval de una labor profesionalmente realizada. En este sentido, el ejemplo más paradigmático puede ser el del Departamento de Policía de Seattle (Washington, EE.UU.), que en febrero de 2015 [vi] habilitó un canal de YouTube [vii] en el que muestra videograbaciones de las actuaciones de sus agentes. 

En el lado del “ataque” -en este caso “denuncia”, dado que no pretende ser más que otro mecanismo de defensa ante los excesos y abusos policiales- estarían las posibilidades ofrecidas por los teléfonos móviles (vimos la muerte de Walter gracias a la grabación realizada por el inmigrante dominicano Feidin Santana), en combinación con las redes sociales que se han convertido en el campo de acción de activismos de todo tipo. 

Las guerras de YouTube

Pocos ejemplos muestran mejor la rápida y reciente explosión de lo digital, de la creciente ubicuidad de la imagen digital, que las famosas fotografías de la romana Via della Conciliazione, tomadas en 2005 y 2013, por los fotógrafos Luca Bruno y Michael Sohn para la agencia Associated Press [viii].

El 4 de abril de 2005, tras el fallecimiento del Papa Juan Pablo II, Bruno retrató una calle atestada de fieles dirigiéndose en procesión hacia la basílica de San Pedro, donde presentarían sus respetos al cadáver papal. La gente aparece caminando con normalidad, con los brazos hacia abajo y solo es visible, en el primer plano de la imagen, un único teléfono móvil (¡Faltan dos años y medio para la llegada del iPhone!).

La fotografía de Sohn, tomada en la noche del 13 de marzo de 2013, tras la elección del cardenal Jorge Bergoglio como nuevo Pontífice, muestra una escena bien distinta: la multitud avanza hacia la Plaza de San Pedro para presenciar el primer discurso del Papa Francisco, pero, esta vez lo hace con los brazos en alto, sujetando sus teléfonos móviles y tabletas, que guardarán para la historia el jubiloso momento (¡Es el sexto año de la era iPhone!).

Sin embargo, como se ha apuntado al principio de esta reflexión, cámaras, móviles y redes sociales no siempre han sido protagonistas de escenas tan inocentes. En 2009, durante el reivindicativo “Movimiento Verde” iraní, un móvil e Internet mostraron la muerte de la joven estudiante Neda Salehi Agha Soltan [ix] ¡Posteriormente, las autoridades prohibirían captar imágenes de su funeral! Dicha prohibición trataba de atajar el que se ha demostrado como uno de los mayores potenciales de estos nuevos medios: su capacidad de movilización, la cual fue ampliamente explotada durante las “primaveras” que recorrieron el norte de África en 2011.  

Pero sería en el marco de la contienda de Irak, desarrollada a lo largo de la primera década del siglo XXI, donde realmente adquiriría sentido tildar al video digital como una verdadera ciberarma. En su informe de 2009, elaborado para el Instituto de Estudios Estratégicos del Ejército de los EE.UU., “YouTube War: Fighting in a world of cameras in every cell phone and Photoshop on every computer”[x] (“La Guerra de YouTube: Luchando en un mundo de cámaras en cada teléfono móvil y Photoshop en cada ordenador”), la académica y analista Dra. Corie E. Dauber señalaba el impacto de las grabaciones en video -habitualmente de ataques a blancos aliados- realizadas y difundidas por los insurgentes. Un impacto que se materializó en el desaliento de al menos una parte de la opinión pública occidental -objetivo prioritario de las citadas grabaciones- respecto de la utilidad del conflicto.

Sería solo el principio ...

La macabra presencia mediática del “Cibercalifato”

La Primera Guerra del Golfo (1990-91), que siguió a la invasión de Kuwait por parte de Irak, fue la guerra de la cadena estadounidense CNN, que la retransmitió en directo a todo el mundo. Durante la Segunda Guerra del Golfo (2003-2011), que acabó con el régimen de Saddam Husein en Irak, la cadena catarí Al-Jazeera se dio a conocer en Occidente. La actual contienda que el mundo mantiene con el Estado Islámico de Irak y el Levante (EI), no ha requerido periodistas: el desarrollo tecnológico ha facilitado a los terroristas grabar, montar en sus propios “estudios” y divulgar sus acciones, sin la cobertura que habría ofrecido la prensa convencional.

Dichos estudios de campaña, verdaderos laboratorios de medios, son y han sido objetivo prioritario de las fuerzas occidentales desde los tiempos de la Guerra de Irak. Como relata la Dra. Dauber en su estudio, ya en ese momento el tratamiento que recibían ese tipo de instalaciones era el de infraestructuras críticas para el uso: se mantenían aisladas de Internet y solo cuando su producción videográfica estaba preparada, era trasladada a aquellos otros puntos desde donde se la podía subir a la red. De ese modo, la combinación de las capacidades tecnológicas que hoy ofrece el video digital con las que aporta Internet, han hecho del conjunto una verdadera “ciberarma” y han convertido al autoproclamado califato en un “cibercalifato”, cuya presencia en Internet, descrita parcialmente en el reciente “The ISIS Twitter Census”[xi], ha resultado clave para las pretensiones del EI desde diferentes perspectivas:

- En primer lugar, como se ha señalado en alguno de los casos mencionados más arriba, EI ha sabido aprovechar la capacidad de movilización de sus acciones propagandísticas, consiguiendo atraer a Irak y Siria a varios miles de combatientes que han acudido en su apoyo desde todos los rincones del globo. 

- En segundo, las macabras imágenes difundidas por EI a lo largo del último año -la más estremecedora, sin duda, la muerte del piloto jordano, Muath al-Kaseasbeh[xii], quien fue quemado vivo a principios de año- han buscado doblegar los ánimos de quienes han tenido la fortuna de verlas desde la distancia. 

El terror desde la comodidad de un sofá parece menor, pero no debería despreciarse el potencial de estas ciberarmas de difusión masiva.

* * *

Este artículo fué publicado originalmente por la revista mejicana Magazcitum el 29/11/2015. Ref: Magazcitum, año 6, nº3, 2015 pág. 16. "[Ciber]Armas de difusión masiva" - Miguel García-Menéndez. 

---------------------------------------------------

[i] Lisaius, Som. “Marana police video shows cruiser ram crime spree suspect”. Tucson News Now, 14 de abril de 2015. URL [a 2015.04.26]: http://www.tucsonnewsnow.com/story/28801395/marana-police-dash-cam-video-shows-cruiser-ram-crime-spree-suspect 

[ii] Ortiz, Erik. “Oklahoma Man Eric Harris Fatally Shot by Deputy Who Meant to Fire Taser”. NBC News, 12 de abril de 2015. URL [a 2015.04.26]: http://www.nbcnews.com/news/us-news/oklahoma-man-eric-harris-fatally-shot-police-accident-instead-tased-n340116

[iii] Smith, Michael S. y Matt Apuzzo. “South Carolina Officer Is Charged With Murder of Walter Scott”. International New York Times, 7 de abril de 2015. URL [a 2015.04.26]: http://www.nytimes.com/2015/04/08/us/south-carolina-officer-is-charged-with-murder-in-black-mans-death.html

[iv] López, Germán y Anand Katakam. “Interactive map: US police have killed at least 5,600 people since 2000”. Vox Media, 9 de abril de 2015. URL [a 2015.04.26]: http://www.vox.com/2014/12/17/7408455/police-shootings-map

[v] Katakam, Anand. “Police-involved deaths (2000-2015)”. Anand Katakam/CartoDB, 9 de abril de 2015. URL [a 2015.04.26]: https://anandkatakam.cartodb.com/viz/e13166bc-854f-11e4-abdb-0e018d66dc29/embed_map

[vi] Área de Comunicación del Departamento de Policía de Seattle. “SPD Launches YouTube Channel for Bodyworn Video”. Blog “SPD Blotter”, 25 de febrero de 2015. URL [a 2015.04.26]: http://spdblotter.seattle.gov/2015/02/25/spd-launches-youtube-channel-for-bodyworn-video/

[vii] Departamento de Policía de Seattle. “SPD BodyWornVideo”. YouTube, febrero de 2015. URL [a 2015.04.26]: https://www.youtube.com/channel/UCcdSPRNt1HmzkTL9aSDfKuA

[viii] Dellaverson, Carlo. “Witnessing papal history changes with digital age”. NBCNews, 14 de marzo de 2013. URL [a 2015.05.02]: http://photoblog.nbcnews.com/_news/2013/03/14/17312316-witnessing-papal-history-changes-with-digital-age

[ix] El Mundo. “Neda, el ‘Ángel de Irán’”. ElMundo.es, 23 de junio de 2009. URL [a 2015.05.02]: http://www.elmundo.es/elmundo/2009/06/23/internacional/1245737789.html 

[x] Dauber, Corie E. “YouTube War: Fighting in a World of Cameras in Every Cell Phone and Photoshop on Every Computer”. Strategic Studies Institute, 16 de noviembre de 2009. URL [a 2015.05.04]: http://www.strategicstudiesinstitute.army.mil/pubs/display.cfm?pubID=951.  

[xi] Berger, J.M. y Jonathon Morgan. “The ISIS Twitter census: Defining and describing the population of ISIS supporters on Twitter”. The Brookings Institution, marzo de 2015. URL [a 2015.05.05]: http://www.brookings.edu/research/papers/2015/03/isis-twitter-census-berger-morgan

[xii] Uno de los primeros ‘tweets’ recogiendo la noticia del brutal asesinato del piloto jordano Muath al-Kaseasbeh, publicado el 3 de febrero de 2015. URL [a 2015.05.05]: https://twitter.com/reecegeisler/status/562673337315647488

 

IoT: Cuando las cosas comiencen a pensar

Sunday, 25 October 2015 Maria Jose de la Calle Posted in iTTi Views

Este artículo toma su título del libro "When Things start to Think" [i], sobre el cual Nicholas Negroponte, fundador y primer director del MIT MediaLab, escribió "An important story about why and how computers will disappear, when and where your things will think."

La Internet de las Cosas -o IoT (Internet of Things) para abreviar-, es, según Whatis [ii], un entorno en el cual los objetos están dotados, por una parte, de identificadores únicos y, por otra, de la habilidad de transferir datos a través de una red sin requerir de la intervención humana. 

La "IoT" no es un concepto nuevo. Prueba de ello es el libro que hemos citado. Los ejemplos a nuestro alrededor son crecientes en número: piense en los coches, que gracias a la tecnología GPS -y a las aplicaciones informáticas correspondientes- son capaces de guiarnos hasta nuestro destino; piense en los sensores de los que van dotados esos mismos vehículos, que permiten conocer cualquier deficiencia en su estado y comunicarlo automáticamente al taller; piense en su interacción con otros, sensores urbanos que informan sobre el estado del tráfico sugiriéndonos rutas alternativas o estacionamientos cercanos.

Otro destacado ejemplo lo conforman los objetos que podemos llevar puestos -wearables, por su denominación inglesa-. Objetos cotidianos, como relojes, pulseras, gafas, etc., que, mediante la incorporación de cámaras, micrófonos y sensores diversos se convierten "medidores" de nuestros parámetros biológicos y de nuestro entorno, pudiendo informar sobre el estado de los mismos a través de internet a nuestro centro de salud, como si de los vehículos anteriormente citados se tratara. 

Todos los dispositivos que contribuyen a nuestro bienestar cotidiano -bombillas, electrodomésticos, zapatos, ropa, etc- son susceptibles de estar conectados para proporcionarnos infinidad de servicios adicionales. Los ordenadores, tal y como los conocemos, desaparecen para integrarse dentro de los objetos que están a nuestro alrededor, y la división entre "hardware" y "software", se difumina. Citando nuevamente a Negroponte [iii], el medio para resolver problemas queda embebido en las cosas; "hardware" y "software" se fusionan en un nuevo "softwear". El incremento en disponibilidad de potencia de cálculo está acompañado de una disminución en la visibilidad [iv]. 

Pero conseguir que dispositivos tan heterogéneos como una bombilla o un gran ordenador hablen el mismo lenguaje y sean capaces de entenderse a través de internet, se antoja un importante reto. Para contribuir a superarlo, ya a principios de la pasada década, los investigadores del Centro de Bits y Átomos del MIT, Neil Gershenfeld, Raffi Krikorian y Danny Cohen desarrollaron un protocolo, al que bautizaron como " Internet-0" (I0), que ofrecía una nueva -pero compatible- capa de comunicación por debajo de la existente Internet. Los resultados del proyecto fueron dados a conocer al gran público en la edición de octubre de 2004 de "Scientific American" [v]. 

I0 se definió [vi] como una tecnología de codificación para llevar datagramas-IP sobre cualquier medio físico por medio de impulsos eléctricos, ópticos, de radio o acústicos, que transmitían 0s y 1s de manera análoga a los puntos y rayas del código Morse. Esto aportó  simplicidad e independencia del medio, siguiendo el espíritu de "IP-sobre-todo" -"IP-over-everything"-. 

De ese modo los datos podrían ser enviados a través de un cable, impresos en una página o grabados en una llave, todos utilizando la misma codificación I0.

Además, utilizando I0, la idea original de unir redes de ordenadores en un todo continuo -el "inter" en "Internet"- podía extenderse a redes de todo tipo de dispositivos, un concepto conocido como "interdevice internetworking"; esto es, una red para conectar todas las cosas, en la que todas pudieran intercomunicarse e interoperar. 

* * *

Este artículo fué publicado originalmente por ComunicacionesHoy, nº 146, 25.9.2015. Referencia: Especial/IoT, pg.36 – "IoT: Cuando las cosas comiencen a pensar" – María José de la Calle.  

---------------------------

[i] Gershenfeld, Neil. (1999). "When Things start to Think". Canada: Fitzhenry & Whiteside Ltd.    url [a 25.10.2015]: http://www.amazon.com/When-Things-Start-Think-Gershenfeld/dp/080505880X/ref=mt_paperback?_encoding=UTF8&me= 

[ii] url [a 25.10.2015] http://whatis.techtarget.com/definition/Internet-of-Things 

[iii] "Bits are as insubstantial as the ether, but they tend to be packaged in hard boxes. Hardware and software must merge into softwear." MIT’s Nicholas Negroponte and Neil Gershenfeld write in “Wearable Computing” in Wired (Dec 1995). url [a 25.10.2015] http://www.wired.com/1995/12/negroponte-54/ 

[iv] "one in which the increasing “availability” of processing power would be accompanied by its decreasing “visibility”. Mark Weiser. Extraído de "ITU Internet Reports 2005: The Internet of Things". url [a 25.10.2015] http://www.itu.int/dms_pub/itu-s/opb/pol/S-POL-IR.IT-2005-SUM-PDF-E.pdf 

[v] N.Gershenfeld, R.Krikorian & D.Cohen. "Scientific American", oct-2004, "The Internet of Things". url [a 25.10.2015] http://cba.mit.edu/docs/papers/04.10.i0.pdf 

[vi] url [a 25.10.2015] http://rbeverly.net/research/old/i0/draft-gershenfeld-i0- 00.ps 

 

El liderazgo de la Transformación Digital. Papel del CIO.

Friday, 16 October 2015 iTTi, Innovation & Technology Trends Institute Posted in Corporate Governance of IT

La digitalización (la Transformación Digital) de la empresa es un tema que viene ocupando la atención de los propios empresarios, y la de académicos y profesionales, llegando a alcanzar los titulares de la prensa general[i]. 

Harvard Business Review” ha publicado recientemente una interesante investigación[ii], basada en una amplia encuesta[iii], en la que destaca el papel del CIO en esa transformación. 

En la presente “Referencia” revisamos y comentamos sucintamente dicho trabajo, cuyas grandes conclusiones generales nos parecen desoladoras: 

i. “La mayoría de las empresas carecen de los conocimientos y habilidades necesarios para tener éxito en los aspectos digitales de sus negocios”;

ii. “Si bien los CEOs generalmente entienden las oportunidades y amenazas del negocio digital, muchos tienen aún que elaborar y comunicar una visión de sus empresas, o desarrollar una estrategia que convierta dicha visión en realidad”; y

iii. “Los directivos no tecnológicos de la mayoría de las organizaciones carecen de las habilidades y conocimientos para ejecutar una estrategia digital, en los casos en los que se dispone de una”

Un 20% escaso de los encuestados, afortunadamente para ellos y sus empresas (y para el lector, como ejemplo a emular), pertenecen a lo que el estudio ha denominado “Líderes Digitales” (LD); que son aquellos que satisfacen dos criterios: 

1) Liderazgo digital.

2) Buena gestión [iv].

O sea, que simultanean una visión y estrategia digitales, con la capacidad para materializarlas. Ello se traduce en mayor crecimiento de la facturación y mayores márgenes de beneficio, en relación al resto.

El liderazgo digital comienza en la cúspide. Es positivo que la mayoría (69%) de los encuestados hayan declarado que sus CEOs comprenden las oportunidades y amenazas digitales; aunque sólo los de las organizaciones identificadas como LD los han traducido (sin delegar esta tarea) a una visión y estrategia digitales, claramente articuladas.

Más de la mitad de los LD consideran a sus responsables de Tecnologías de la Información (TI), I+D+i, mercadotecnia y servicios al cliente dotados de excepcionales conocimientos y habilidades digitales.

Resulta claro que los directivos de las empresas tienen que aprender sobre tendencias digitales y mantenerse actualizados. En ello los CIOs tienen la oportunidad de jugar un papel clave como evangelistas, líderes y entrenadores (“coaches”) digitales. Situar personal de TI en las líneas de negocio puede facilitar el aprendizaje en el trabajo. Pero hay que comunicar en un lenguaje de actividades y resultados del negocio; lenguaje poco familiar a los tecnólogos. 

Se confirma la tendencia, observada en los últimos años, hacia un peso creciente de las inversiones de base tecnológica impulsadas por las áreas funcionales (en lugar de por los servicios de TI). En los LD ello sucede con la cooperación de dichos servicios; pero en la restante mayoría de los casos, sucede de espaldas a aquéllos.

Las TI no son (ni deben ser) el cometido de todos; los directivos no tecnológicos no tienen por qué convertirse en expertos en TI. ¡No es ese el objetivo! Lo que sí tienen que saber es qué pueden hacer las TI por la empresa, y cómo usarlas.

Muchas empresas echan de menos un foro o marco formativo adecuado y los CIOs, que están bien posicionados para educar en esto, no siempre están bien equipados. Un consejo: si no se tiene claro por dónde empezar, hágase por formación en técnicas analíticas.

Por lo demás, el trabajo de HBR propone siete recomendaciones para los CIOs:

1) Construya confianza.

2) Apoye las iniciativas tecnológicas promovidas por el resto de áreas del negocio.

3) Extreme sus esfuerzos por promover el aprendizaje de lo digital. 4) Sea el guía al que recurre la empresa.

5) Hable en el idioma de sus interlocutores (no tecnólogos).

6) Dígale a la empresa qué es lo que resulta posible hacer con la tecnología a su alcance.

7) Contrate expertos externos para mantenerse actualizado. 

Buena lista para un sosegado examen de conciencia. Frente a estas siete virtudes capitales, hay otros siete pecados... 

* * *

Este artículo fué publicado originalmente por la revista NOVÁTICA, nº 232, abril-junio 2015. Referencia: Ref. Autoriz. NOVÁTICA 232, pg. 74 – El liderazgo de la Transformación Digital. Papel del CIO – Miguel García-Menéndez, Manuel Palao.  

-----------------------------------

[i] Los medios generalistas (CNN, ElSemanalDigital.com, Fortune, The New York Times, …), los blogs especializados (Blogpodium, Dealb%k, Insights & Publications, NiemanLab, Siemens USA Newsroom, …) o los centros académicos de investigación (CDB, CISR, …) ofrecen regularmente análisis, comentarios y/o noticias sobre cómo la “digitalización” va permeando cada sector económico (bancos, fábricas, granjas, museos, periódicos, …) e, incluso, cada país (China, EEUU, Francia, …). Sirvan como muestra las siguientes referencias y citas:

- Westerman, George. “Leading Your Company’s Digital Transformation” [Video]. MIT. Sloan School of Management. Center for Digital Business, 19 de octubre de 2012. URL [a 2015.06.07]: http://sloanreview.mit.edu/article/video-leading-your-companys-digital-transformation/ 

- Benton, Joshua. “The leaked New York Times innovation report is one of the key documents of this media age”. NiemanLab, 15 de mayo de 2014. URL [a 2015.06.07]: http://www.niemanlab.org/2014/05/the-leaked-new-york-times-innovation-report-is-one-of-the-key-documents-of-this-media-age/   

- Woetzel, Jonathan; Gordon Orr; Alan Lau; Yougang Chen; Michael Chui; Elsie Chang; Jeongmin Seong and Autumn Qiu. “China’s digital transformation”. Insights & Publications. McKinsey Global Institute. McKinsey & Company, julio de 2014. URL [a 2015.06.07]: http://www.mckinsey.com/insights/high_tech_telecoms_internet/chinas_digital_transformation 

- Lohr, Steve. “Museums Morph Digitally. The Met and Other Museums Adapt to the Digital Age”. The New York Times Company, 23 de octubre de 2014. URL [a 2015.06.07]: http://www.nytimes.com/2014/10/26/arts/artsspecial/the-met-and-other-museums-adapt-to-the-digital-age.html 

- ”It’s no secret that most organizations around the globe are in need of digitizing their business model and change rapidly to meet new customer expectations and demands” (No es ningún secreto que la mayoría de las organizaciones alrededor del globo tengan la necesidad de digitalizar sus modelos de negocio y de cambiar rápidamente para dar respuesta a las nuevas expectativas y demandas de sus clientes), cita de Marc Huijbregts, Accenture, tomada del artículo: Huijbregts, Marc. “How to re-invent Fortune 500 Companies”. Accenture Blogpodium. Accenture, 7 de noviembre de 2014. URL [a 2015.06.07]: http://www.accenture-blogpodium.nl/innovation/re-invent-fortune-500-companies/ 

- Bray, Chad. “ABN Amro to Cut Jobs in Shift to Digital”. DealB%K. The New York Times Company, 14 de noviembre de 2014. URL [a 2015.06.07]: http://dealbook.nytimes.com/2014/11/14/abn-amro-to-cut-jobs-in-shift-to-digital/ 

- Hardy, Quentin. “Working the Land and the Data”. The New York Times Company, 30 de noviembre de 2014. URL [a 2015.06.07]: http://www.nytimes.com/2014/12/01/business/working-the-land-and-the-data.html 

- Levie, Aaron. “How companies can avoid the pains of digital disruption”. Fortune, 8 de diciembre de 2014. URL [a 2015.06.07]: http://fortune.com/2014/12/08/how-companies-can-avoid-the-pains-of-digital-disruption/ 

- Chambers, John. “How France is embracing digitization of everything”. Cable News Network (CNN), 22 de febrero de 2015. URL [a 2015.06.07]: http://edition.cnn.com/2015/02/21/intl_tv/chambers-france-digitization/ 

- “The good news for U.S. industry is this: The path to modernization is clear. Digitalization … the solution.” (La buena noticia para la industria estadounidense es ésta: El camino hacia la modernización es claro. La digitalización ... la solución), cita de Raj Batra, Presidente, Digital Factory, tomada del artículo: Batra, Raj. “Manufacturing Success Depends on Embracing Digitalization”. Siemens USA Newsroom. Siemens Corporation, 9 de abril de 2015. URL [a 2015.06.07]: http://news.usa.siemens.biz/blog/manufacturing-success-depends-embracing-digitalization 

- Ayerbe Dárceles, Paula. “BBVA renueva su cúpula en pos de la digitalización”. ElSemanalDigital.com, 6 de mayo de 2015. URL [a 2015..]: http://www.elsemanaldigital.com/bbva-renueva-su-cupula-en-pos-de-la-digitalizacion-141871.htm 

- Weill, Peter. “Digital Disruption in the Financial Services Industry” [Video]. MIT. Sloan School of Management. Center for Information Systems Research, enero de 2015. URL [a 2015.06.07]: http://cisr.mit.edu/publications-and-tools/publication-search/digital-disruption-in-financial-services/ 

[ii] Harvard Business Review Analytic Services. “Driving Digital Transformation: New Skills for Leaders, New Role for the CIO”. Harvard Business School Publishing, 2015. URL [a 2015.07.06]: https://enterprisersproject.com/digital-transformation-report  (Gratuito. Requiere registro). 

[iii] La encuesta tuvo 436 respuestas; de ellas, 299 correspondientes a miembros del Harvard Business Review Advisory Council. Cubrió empresas de todo el mundo, con amplia distribución sectorial y tamaño mediano-grande, por su plantilla y facturación. 

[iv] La ilustrativa ‘ficha técnica’ de la encuesta no da empero información suficiente sobre la metodología utilizada, las variables empleadas y los estadísticos resultantes, por lo que es prudente tomar esa clasificación con una pizca de sal.

 

La presencia de la mujer en la profesión informática. Su contribución desde los inicios.

Sunday, 11 October 2015 Maria Jose de la Calle Posted in iTTi Views

Dedicatoria 

Este artículo está dedicado a tres mujeres con las que tuve la suerte de empezar a trabajar allá por los años ochenta, y que me enseñaron y apoyaron en esos difíciles momentos, así como a todas con las que posteriormente he trabajado a lo largo de mi carrera profesional, mujeres todas ellas muy inteligentes y valiosas, universitarias, pero que no han conseguido llegar a puestos de dirección de las empresas.

Unas, han sido apartadas del mundo laboral con la disculpa de estos tiempos de crisis, otras siguen trabajando pero sin moverse del puesto que vienen ocupando desde hace muchos años, sin promoción ni reconocimiento, cuando muchos de sus (nuestros) compañeros masculinos ocupan puestos más altos, sin razón alguna de valía profesional para descartarlas.

No quiero decir que por ser mujer haya que promocionar a las personas, digo todo lo contrario, que a lo largo de mi carrera profesional he visto un límite que la mujer no ha podido (no la han dejado) sobrepasar. ¿No había ninguna lo suficientemente competente para evolucionar en su carrera?

Todas ellas estaban (están) muy cualificadas ya que si no, ni siquiera hubieran sido contratadas. Además, creían en lo que hacían y, por tanto, aplicaban una pasión y unos criterios de calidad a su trabajo, en la mayoría de los casos ya olvidados.

Ellas han acabado desencantadas de esta creativa y multifacética profesión. Quizás, este es otro motivo de la disminución de estudiantes femeninas en esta disciplina. Es decir, que han visto cómo sus predecesoras más cercanas han realizado un esfuerzo inútil en pro de conseguir una mejora para la posición de la mujer en el mundo laboral a través de la oportunidad que esta nueva profesión ofrecía.

Pero la historia no ha acabado... 

* *

La mujer ha participado desde el inicio en la profesión informática, tal y como se refleja en multitud de casos de mujeres brillantes que han contribuido y están contribuyendo a la profesión objeto de este artículo[i]. Si alguien lo pone en duda, ello será debido a la falta de difusión que se les ha dado, al contrario de lo ocurrido cuando los protagonistas han sido los hombres, o a la apropiación de sus ideas y logros por parte de los participantes masculinos en sus mismos proyectos. 

Las contribuciones que aquí les presento, están, mayoritariamente, relacionadas con funciones de más nivel de abstracción -software- que la propia máquina -hardware-, más relacionadas con las Matemáticas -todos los casos que se relacionan en este artículo son de mujeres que han estudiado Matemáticas- que con la ingeniería; más relacionadas con los modelos que con los artefactos físicos. 

Estas contribuciones han acompañado al desarrollo de los ordenadores desde el principio y han hecho que estas máquinas realizaran las funciones para las que habían sido ideadas. Sin los programas no hubieran sido más que cables y válvulas.

Ha habido muchos intentos de sacar a la luz esta labor poco conocida -y menos reconocida- de las mujeres. Una muy significativa fue la convocatoria realizada en el año 2009 por Suw Charman- Anderson[ii] a todo el que quisiera escribir en su blog, columna de periódico, o cualquier publicación, un artículo el jueves 24 de Marzo sobre mujeres excelentes en tecnología. Esta iniciativa dio origen a la celebración del "Dia de Ada Lovelace"[iii] en conmemoración de los logros de las mujeres en ciencia, tecnología, ingeniería y matemáticas (STEM, del inglés “science, technology, engineering, maths”). Este día ha quedado fijado en los martes que estén a mitad del mes de octubre de cada año -para este año 2015 será el 13-. 

Paradójicamente, a pesar de los esfuerzos realizados por las campañas de difusión y del avance en el acceso a la educación y al trabajo por parte de la mujer , se ha notado un claro retroceso de participación femenina desde los años ochenta tanto en los estudios académicos como en el mundo laboral relacionado con las TI.

Antes de la llegada del ordenador: Ada Lovelace (siglo XIX).

El que al día de la celebración de los logros de la mujer en STEM se le haya dado el nombre de "El Día internacional de Ada Lovelace” no ha sido un capricho. Se considera que Ada Lovelace (1815- 1852) fue la primera persona programadora de computadoras: ¡una mujer![iv].

De la mano de su madre, quien se había formado con profesores de Cambridge en Literatura, Filosofía, Ciencias y Matemáticas, fue educada, a su vez, en Ciencias y Matemáticas. En 1832 conoció a Charles Babbage en una conferencia sobre su “máquina diferencial”, que posteriormente daría lugar a las ideas sobre la “máquina analítica”, un concepto más complejo sobre el cual Babbage nunca publicó nada.

Ada se interesó por la máquina y por su base matemática, y fue la encargada de traducir un artículo del ingeniero italiano, Luigi Federico Manabrea, donde se describía la reciente "máquina analítica" de Babbage. En dicha traducción ella añadió sus propias notas, tres veces más largas que el texto original, explicando cómo la máquina de Babbage funcionaría en el caso de que se construyera. La última nota, la nota "G", era un algoritmo para calcular las tablas de números de Bernoulli. Esta nota está considerada como el primer programa de ordenador, lo que le valió ser recordada como la precursora de esa disciplina.

La traducción junto con las notas fueron publicadas en Taylor’s Scientific Memoirs en 1843[v].

Ada fue, de ese modo, la precursora de la “Ciencia de la Computación”, mucho antes de que se construyera el primer ordenador. En 1979 el Departamento de Defensa de los Estados Unidos dio, en su memoria, el nombre de ADA a un nuevo lenguaje de programación, desarrollado durante aquella década 70 por encargo del propio Departamento.

Los primeros ordenadores y las "codebreakers"

Un salto de 100 años nos acerca a la época de "Colossus”, el primer ordenador electrónico programable, desarrollado por Tommy Flowers y que empezó a operar en diciembre de 1943. Fue construído en Bletchley Park para ayudar a descifrar los mensajes interceptados a los alemanes durante la II Guerra Mundial.

Para hacerlo funcionar se precisaba de un elevado número de operadores y especialistas, lo que supuso que, en los años en que se estuvo trabajando allí (1941-1945), unas nueve mil personas trabajasen en el complejo de las cuales seis mil seiscientas eran mujeres.

El secretismo que rodeó a Betchley durante y después de la guerra hizo que los trabajos llevados a cabo en esta finca, situada a unos 80 kilómetros al norte de Londres -incluidos los de las mujeres que habían tomado parte en ellos- no salieran a la luz, hasta que, en los años setenta, el parque dejó de ser un secreto, revelándose entonces, no obstante, sólo los nombres de cuatro de aquellas jóvenes, reconocidas oficialmente como especialistas en cifra: Margaret Rock (1903-1983), Ruth Briggs (1920-2005), Mavis Lever (1921-2013) y Joan Clarke (1917-1996), esta última como miembro del equipo de Alan Turing que estuvo al frente del descubrimiento del código “Enigma” de la Armada alemana.

Casi cincuenta años después los nombres de estas mujeres todavía no han ocupado el lugar que les corresponde. ¡No habrá sido por falta de tiempo!. En junio del 2014 Betchley Park abrió sus puertas convertido en museo. En él se exhibe, en honor de las mujeres que trabajaron allí, una única fotografía coral en la que, de forma anónima, aparecen muchas de ellas. En cambio sí se pueden observar los retratos personales de Alan Turing, Dilly Knox, Alastair Denniston, Gordon Welchman y así hasta treinta jefes y especialistas en cifra -todos varones, claro-.

El reciente éxito cinematográfico "The Imitation Game” se centra precisamente en la historia del equipo de Alan Turing, que compartió espacio en Bletchley con el equipo de “Colossus”, aunque éste es un aspecto que no aparece en la cinta.

Quién sí aparece, y que constituye la única excepción a esta "amnesia", es la citada Joan Clarke junto a sus compañeros varones, y, como ellos, en calidad de especialista en cifra. Joan había estudiado en la Universidad de Cambridge, donde obtuvo un doble título en Matemáticas; sin embargo, antes de entrar en el equipo de Alan Turing, pese a sus credenciales académicas, le había sido asignado un puesto de secretaria. Su brillantez se evidencia en la rapidez con la que pasó a formar parte del equipo del matemático. 

ENIAC y Las "ENIAC girls"

Casi contemporáneo a “Colossus” pero al otro lado del Atlántico, aparece la ENIAC, (por su nombre en inglés Electronic Numerical Integrator And Computer) calculadora digital de propósito general. Se construyó en la Universidad de Pensilvania como un encargo del ejército de los EEUU, fundamentalmente para el cálculo de trayectorias balísticas. Los que han pasado a la historia como sus creadores, han sido los ingenieros John Presper Eckert y John William Mauchly, a quienes se debe el “hardware”. Sin embargo para realizar los cálculos para los cuales había sido creada se necesitaba algo más, la programación de la máquina. Y de ello se ocuparon 6 mujeres, hábiles matemáticas y lógicas, que iban inventando la programación a medida que la realizaban, las llamadas "ENIAC girls". 

Sus nombres Betty Snyder Holberton (1917-2001), Jean Jennings Bartik (1924-2011), Kathleen McNulty Mauchly Antonelli (1921-2006), Marlyn Wescoff Meltzer (1922-2008), Ruth Lichterman Teitelbaum (1924-1986) y Frances Bilas Spence (1922-2012). 

Es más, la ENIAC se presentó en público el 15 de febrero de 1946, y el programa usado como demostración en la presentación fue el cálculo de una trayectoria y corrió a cargo de Elizabeth Jean Jennings y Elizabeth Snyder. Esta última está considerada como una de las mejores programadoras del grupo y participó poco después en el UNIVAC I contribuyendo al desarrollo del lenguaje C-10, prototipo de los lenguajes de programación modernos. 

A pesar de todo ello, estas mujeres prácticamente no aparecen en los libros de historia de la computación, y fueron silenciadas durante más de cuarente años, aunque se las podía ver en alguna fotografía de la máquina, llegándose incluso a decir hasta la década de los ochenta, que eran sólo modelos que posaban junto a la máquina ("refrigerator ladies"). 

Nadie había programado jamás un computador así y la única herramienta práctica disponible era el diagrama lógico de la máquina. Ellas sentaron las bases para que la programación fuera sencilla y accesible para todos, crearon el primer conjunto de rutinas, las primeras aplicaciones de software y las primeras clases en programación. Su trabajo modificó drásticamente la evolución de la programación entre las décadas de los años cuarente y cincuenta [vi]. 

UNIVAC y Grace Murray Hopper

Siguiendo la pista de los creadores de "Colossus", los ingenieros Mauchly and Presper dejaron la Universidad de Pensilvania y fundaron en 1946 su empresa, "Electronic Control Company", posteriormente rebautizada como "Eckert-Mauchly Computer Corporation" (EMCC), obteniendo financiación para construir otro ordenador, la UNIVAC[vii] (del inglés UNIVersal Automatic Computer) el primer ordenador “mainframe” comercial para aplicaciones de negocio y sector público, y que vio la luz en 1951. 

En 1949 fichan a Grace Murray Hopper (1906-1992), doctora en matemáticas, quien previamente había trabajado en Harvard en el proyecto de computación de la Mark I para la que desarrolló varias aplicaciones contables, siendo, no obstante en EMCC dónde realizó sus más importantes contribuciones a la programación, empezando en 1952 por el primer compilador de la historia, el A- 0, con sus versiones posteriores A-1 y A-2, y a finales de 1956 con el compilador B-0 o FLOW- MATIC, como se le conoció posteriormente, sentando así las bases del COBOL. Si bien es cierto que no participó en su desarrollo, sí lo hizo del comité formado para su creación en 1959 y posteriormente, de los comités de estandarización del COBOL y el FORTRAN. 

Visto en perspectiva, Grace Murray Hopper tuvo más suerte que sus coetáneas en cuanto a proyección pública. Está considerada como la madre del COBOL y, entre los numerosos reconocimientos que posee, está el otorgado en 1969 al ser nombrada "Hombre del año" en ciencias de la computación (Computer Science Man-of-the-Year Award) de la mano de la Data Processing Management Association [viii]. Curioso lo de "Man-of-the-Year". 

Los lenguajes de programación: Jean E. Sammet

En el comité formado para el desarrollo del COBOL, junto a Grace Murray se sentaba otra mujer: Jean E. Sammet (1928), matemática y científica en computación. 

Fué contratada por IBM en 1961 para organizar y gestionar el “Boston Programming Centre” y en 1962 desarrolló el lenguaje de programación FORMAC (FORmula MAnipulation Compiler), un lenguaje para la manipulación de fórmulas y expresiones matemáticas [ix]. 

Su carrera ha estado centrada en los temas de investigación y desarrollo en el área de los lenguajes de programación, llegando, en 1979, a ser “Software Technology Manager"[x] en IBM. Ha sido, asímismo, la primera persona que ha escrito en extensión sobre la historia y clasificación de los lenguajes de programación, publicando en 1969 el libro "PROGRAMMING LANGUAGES: History and Fundamentals". 

Smalltalk y Adele Goldberg

En los años setenta, se desarrolló en el Xerox Palo Alto Research Center (PARC) el lenguaje de programación Smalltalk [xi] así como los conceptos relacionados con la programación orientada a objetos. Una de las personas que formaban parte del equipo liderado por Alan Kay era Adele Goldberg (1945).

Adele Goldberg[xii] se graduó en Matemáticas en la universidad de Michigan y se doctoró en Ciencias de la Computación en la universidad de Chicago. En 1973 comenzó a trabajar en PARC como ayudante de laboratorio, pasando posteriormente a entrar en el “System Concepts Laboratory” donde con Alan Kay y su equipo desarrollaron el Smalltalk. 

En 1988 dejó Xerox y fundó “ParcPlace System”, empresa dedicada a la creación de herramientas de desarrollo para aplicaciones basadas en Smalltalk.

Internet: Radia Perlman, la madre de internet.

Aunque a Radia Perlman no le gusta mucho que la llamen así, ya que, según sus palabras "Esto es excesivo ya que no creo que un solo individuo merezca ser reconocido como el inventor de Internet" [xiii], fué ella la que en 1985, mientras trabajaba para la ya desaparecida Digital Equipment Corporation (DEC) desarrolló el STP (spanning tree protocol), fundamental para permitir la redundancia de caminos en las redes de área local. Este protocolo transformó Ethernet desde una tecnología que podía trabajar solamente con algunos nodos a una distancia reducida, hacia algo que podía crear una gran red, algo indispensable para las comunicaciones en red y, por extensión, para Internet. 

Por la misma época, desarrolló el protocolo que posteriormente ISO adoptó como IS-IS, protocolo de enrutamiento utilizado por muchos de los proveedores de servicios de Internet.

Radia Perlman obtuvo su grado, máster en Matemáticas y título de doctora en Ciencias de la Computación en el MIT. Experta en protocolos de red y en seguridad, a lo largo de su carrera ha desarrollado más de 100 patentes [xiv]. 

Después de su época en DEC, trabajó para Sun Microsystem, dónde desarrolló unas 40 patentes, y en 2010 se unió a INTEL, como responsable de tecnología de redes y seguridad (director of Network and Security Technology).

Últimamente ha estado trabajando en el proyecto TRILL (Transparent Interconnection of Lots of Links), protocolo para la interconexión de centros de datos, que permite el reenvío de paquetes Ethernet utilizando IS-IS en lugar de STP.

Futuro: las estudiantes hoy.

Los ejemplos mostrados constituyen una pequeña muestra -en cantidad, no en calidad- de lo que ha sido, y sigue siendo, la aportación de la mujer a este campo desde sus más tempranos inicios; una aportación que no ha dejado de crecer, alentada por la masiva incorporación femenina a la Universidad durante la segunda mitad del siglo pasado. Pongamos por caso la Facultad de Informática de Barcelona que en la década de los ochenta llegó a tener un alumnado formado en más de un 40% por mujeres, según declaraciones de Nuria Castell, decana de dicha facultad, realizadas el 16 de julio del 2014 para "Womenalia"[xv].

Sin embargo no deja de ser paradójica la inversión de esa tendencia que se observa en la actualidad, justo cuando se han diluido muchísimo las barreras de género a la hora de acceder a la formación y al empleo. Nuria Castell, en la misma entrevista, aporta las siguientes cifras de nuevo acceso femenino a la Facultad de Informática: 10% en el año 2010, 6% en el año 2011, 9% en el año 2012 y 7% en el año 2013, cifras muy lejanas de ese más del 40% antes citado.

Esa misma tendencia se viene observando en EE.UU donde, desde que en 1984 experimentaran un pico histórico del 37 % de mujeres entre los alumnos graduados en licenciaturas relacionadas con las TI, se ha producido un declive llamativo hasta llegar a un 26% en 1998 y a un 12% en 2011. Todo en un momento en el que instituciones tanto públicas como privadas están promoviendo más que nunca campañas e iniciativas para alentar a las mujeres a estudiar ese tipo de disciplinas.[xvi] [xvii].

En el mundo, según el informe "Mujeres programadoras y mujeres hackers"[xviii] publicado en 2011, se viene apreciando, con carácter general, el mismo declive y, a excepción de algunos países asiáticos, el porcentaje de mujeres estudiando y/o trabajando en ámbitos relacionados con las TI es sistemáticamente mas bajo que el de los hombres. No obstante, ha de señalarse que existe una tendencia general a la baja en el número de estudiantes -hombres y mujeres, aunque sobre todo mujeres- que se sienten atraídos por los estudios relacionados con las TI. 

Este llamativo descenso registrado en casi todo el mundo, no responde al hecho, como alguien pudiera pensar, de que la mujer se está replegando a disciplinas "tradicionalmente" reservadas para ella, como las Humanidades. En absoluto. Observando el caso español a través del último informe de "La Universidad en cifras" del año 2012 [xix], se aprecia que el porcentaje de mujeres de entre todos los alumnos que comenzaron el primer año de carreras técnicas en el curso académico 2010/2011 era del 23% solamente. En cambio en Ciencias, el 55% eran mujeres y en Ciencias de la Salud, el 72%. Es decir, Ciencia y Mujer no están reñidos. 

La falta de interés por las TI puede deberse a muchos factores. Uno, que se puede leer en muchos informes y artículos -algunos ya apuntados aquí- es la imagen dada en los medios del joven raro y solitario sólo frente a una máquina, la imagen de personas poco sociables, todo lo contrario a la imagen de la mujer como persona comunicativa. 

Y otro que me atrevería a apuntar es el enfoque actual de los estudios de TI que parecen seguir más los patrones de la Ingeniería -se pasó de "Licenciado en Informática" a "Ingeniero de Informática"- que de la Ciencia. Habría que trasladar el discurso de las TI a la Matemáticas -algoritmos de tratamiento de la información-, de la Física -estado sólido, ordenador cuántico, fibra óptica-, Neurociencia -máquinas que aprenden- etc. tanto que disciplinas base para las TI, y, al mismo tiempo, destinatarias de la contribución de las TI a sus respectivos desarrollos. 

La evolución y crecimiento de las TI conlleva mucho conocimiento interdisciplinar, siendo las propias TI una disciplina que tiene su aplicación en todos los ámbitos de la Sociedad y de las actividades humanas.

Para terminar, mencionar un artículo que Pete Warden publicó en su blog el 5 de octubre del 2014 titulado "Why nerd culture must die"[xx]. En dicho artículo Warden sugiere que tiene que haber muchas cosas equivocadas en un sector -la industria tecnológica en Silicon Valley- tan desequilibrado, como muestra el hecho de que el no de mujeres graduadas en Ciencias de la Computación haya ido disminuyendo drásticamente desde los años ochenta.

Las TI no son los "nerds" de Silicon Valley. Son mucho más. 

* * *

Este artículo fué publicado originalmente por la revista NOVÁTICA, nº 232, abril-junio 2015. Referencia: visiones sobre la mujer en la profesión informática, NOVÁTICA 232, pg. 51 – La presencia de la mujer en la profesión informática. Su contribución desde los inicios – María José de la Calle.  

--------------------------------------------

[i]  Véase la relación que nos ofrece Wikipedia en https://es.wikipedia.org/wiki/Mujeres_en_informática 

[ii] Puede encontrarse la convocatoria en http://www.pledgebank.com/AdaLovelaceDay 

[iii] Ada Lovelace Day: http://findingada.com 

[iv] Véase http://findingada.com/book/ada-lovelace-victorian-computing-visionary/ Consultado feb-2015

[v] Véase https://books.google.es/books?id=0gZ7Bo2NnzAC&pg=PA243&dq=sketch+of+the+analytical+engine&hl=es&sa=X&ved=0CB0Q6AEwAGoVChMIgYr29Li6yAIVSNoaCh1IQw7y#v=onepage&q=sketch%20of%20the%20analytical%20engine&f=false 

[vi] Una buena referencia sobre esta historia, y en la cual me he basado para esta pequeña reseña, es el artículo "ENIAC: una máquina y un tiempo por redescubrir” publicado en Novática-229 julio-agosto de 2013, en página 59 y ss. http://www.ati.es/novatica/2013/224/nv224sum.html  

[vii] Véase https://en.wikipedia.org/wiki/UNIVAC 

[viii] Véase https://es.wikipedia.org/wiki/Grace_Murray_Hopper 

[ix] Véase http://dl.acm.org/citation.cfm?id=808916 

[x] Véase http://www.computer.org/web/awards/pioneer-jean-sammet  

[xi] Véase  http://es.wikipedia.org/wiki/Smalltalk 

[xii] Véase http://en.wikipedia.org/wiki/Adele_Goldberg_(computer_scientist) 

[xiii] "It's overreaching because I don't think any single individual deserves credit for inventing the Internet". Véase http://www.siliconvalleywatcher.com/mt/archives/2011/04/profile_of_radi.php 

[xiv] Véase http://solutionists.ieee.org/radia-perlman/ 

[xv] Véase http://www.womenalia.com/es/hoy-en-womenalia/80-entrevistas/4233-nuria-castell-decana-de-la-facultad-de-informatica-de-barcelona-necesitamos-la-vision-femenina-en-el-sector-tecnologico 

[xvi] Véase http://en.wikipedia.org/wiki/Women_in_computing 

[xvii] Véase http://www.minnpost.com/politics-policy/2008/06/doesnt-compute-more-women-enter-scientific-fields-their-numbers-computer-sci 

[xviii] Véase http://www.rebelion.org/docs/141550.pdf 

[xix] Véase http://www.crue.org/Publicaciones/Documents/UEC/LA_UNIVERSIDAD_ESPANOLA_EN_CIFRAS.pdf 

[xx] Véase http://petewarden.com/2014/10/05/why-nerd-culture-must-die/ 

 

Mi ignorancia del gobierno de TI

Saturday, 10 October 2015 Manolo Palao Posted in Corporate Governance of IT

“¡Dios santo! Llevo más de cuarenta años hablando en prosa sin saberlo…” [i]

Llevo más de cincuenta años trabajando en TI, que antes se llamaba informática  y que antes tenía nombres más prosáicos: ‘proceso de datos’, y aún antes, ‘mecanización administrativa’.

Y resulta que —salvados los tres o cuatro primeros años, en que fundamentalmente mi trabajo fue de cálculos de ingeniería— el resto del tiempo me he estado relacionando ampliamente con temas de gobierno de TI (GTI). Y yo, sin saberlo, como el M. Jourdain de Molière. 

Porque –igual que la TI antes se llamaba informática y antes proceso de datos y mecanización– el GTI, antes se llamaba buena gestión, o control interno, o —como reza el centenario Código Civil español— ‘desempeñar su encargo con toda la diligencia de un buen padre de familia’. 

No pretendo, claro, que TI y GTI sean un mero cambio de nombres: son, evidentemente, fruto de una evolución. 

Quiero también dejar sentado que, cuando hablo de ‘gobierno’, me refiero siempre a ‘buen gobierno’, porque se debe entender que ‘gobierno’ lo hay siempre, más o menos activo o acertado. Cuando no es observable o es malo, mejor llamarlo ‘desgobierno’. 

En la última década he dedicado bastante esfuerzo y atención al GTI —en su definición, variantes y buenas prácticas generalmente aceptadas. Pero…—.

Con el conocimiento aumenta la ignorancia 

Aclaro el subtítulo: a medida que aumenta nuestro conocimiento de algo, aumenta también nuestro conocimiento de lo que ignoramos; aflora o se explicita nuestra ignorancia. 

Se ha usado el símil de que el conocimiento es como una isla o un continente rodeado de un océano de desconocimiento, de ignorancia. Si imaginamos que —con trabajo y suerte— aumentamos nuestra isla de conocimiento, aumentamos también la costa de lo desconocido: el Mare In Cognito, o la Terra Ignota, como Ptolomeo denominó a lo entonces no cartografiado.

Así que, cuando para la revista Sistemas me pidieron unas reflexiones sobre GTI, algo“… basado en… su… experiencia sobre el tema. No es un artículo, son sus opiniones sobre la evolución del Gobierno de TI en las organizaciones…”, me ha parecido oportuno hablar de lo que ignoro –­que es más–, que de lo poco que sé –que es menos–.

La lista de lo que no entiendo, de lo que sé que ignoro es muy larga y sería ciertamente desproporcionada con la extensión de esta columna.  Por ello voy a referirme sólo a media docena de ignorancias, entre las que me preocupan particularmente:

- Gobierno corporativo y gobierno de TI

- Conformidad y rentabilidad

- La epidemia de ‘gobiernos TI’

- El rol del órgano de gobierno

- Los reguladores

- La formación en TI

He optado por no hacer referencia concreta a escuelas, estudios o autores. El lector especialista no las va a requerir y al más generalista confío en que le basten los trazos gruesos que siguen. Pero quedo abierto a cualquier solicitud de referencias. 

Gobierno corporativo y gobierno de TI

El gobierno de TI es “el sistema mediante el cual se dirige y controla el uso actual y futuro de la TI”.

El gobierno de TI es un subconjunto del gobierno corporativo. Un subconjunto integrado en toda la estructura y actividades del gobierno corporativo; no un subconjunto segregado y exento, como si fuera una isla colonial o una sucursal. Es ‘gobierno corporativo de TI’.

Por ser un subconjunto o componente, el concepto predominante en el GTI es ‘gobierno’, siendo ‘TI’ secundario.

Aunque esa secundariedad no debe ni puede ocultar el doble hecho de que, en cualquier sector: i) la TI juega un papel relevante y creciente en todas las actividades empresariales; y ii) la TI encierra actualmente el mayor potencial singular de ventajas estratégicas, para el sector o cualquiera de sus empresas (incluidas algunas ajenas al sector: piénsese en la banca).

No entiendo, pues, el relativamente bajo peso que el GTI tiene aún en los foros profesionales, asociativos y académicos. 

Conformidad y rentabilidad

Parece generalmente aceptado que conformidad y rentabilidad son los dos objetivos inseparables y quizá antagónicos a corto plazo del gobierno de TI. Se les puede imaginar como ese dios Jano bifronte de la mitología romana.

Hay unos pocos estudios empíricos clásicos y referencias que prueban que la conformidad aumenta la rentabilidad (por ejemplo abaratando la financiación al aumentar la confianza). Pero, tales estudios son escasos. Ignoro por qué no se investiga más sobre ese tema, que me parece fundamental. 

La epidemia de ‘gobiernos TI’

Asistimos —en la escena internacional y en las nacionales— a oleadas de escándalos financieros, de robo de información y otros en que la TI tiene un papel relevante; y asistimos también a las aparentemente insuficientes o tardías reacciones de algunos legisladores y reguladores.

No entiendo que, junto a esa evidencia de déficit de gobierno y ese desgobierno, haya una proliferación –una epidemia– de supuestos ‘gobiernos TI’: gobierno del big data, gobierno de la seguridad, gobierno de la nube, gobierno de las licencias… ¡No recuerdo si también gobierno del gobierno!

Los equipos de mercadotecnia / marketing de muchos vendedores también han echado su leña a la hoguera: ‘la nueva versión de nuestro software de contabilidad le resuelve definitivamente su gobernanza financiera’.

‘Gobierno’, ‘gobernanza’, son términos que suenan bien en el mundo de los  negocios; como ‘revitalizador’ suena bien en el mundo de las cremas. Términos que se usan, tanto si se gobierna cuanto si se desgobierna; tanto si la crema revitaliza cuanto si su mejor cualidad —menos mal—es que es hipoalérgica.

No entiendo que no se hagan oír voces cualificadas contra tanta inflación conceptual y publicidad engañosa. 

El rol del órgano de gobierno

El gobierno corresponde, cuando no por ley, por definición y sentido común, al órgano de gobierno —consejo de administración, directorio, junta directiva…— de la entidad.

El gobierno corporativo de TI corresponde al órgano de gobierno; no a la unidad de TI. Incluso la gestión / administración de TI —la ‘tradicional’ responsabilidad de los directivos y técnicos TI– no lo es plenamente de éstos: lo es toda ella, salvo aquella pequeña parte que es gobierno o que es interfaz del gobierno.

No entiendo entonces que un gran número de órganos de gobierno carezca de miembro alguno con conocimientos y habilidades relativos a la TI y sus usos. Se observan destacados movimientos correctores pero, son tan infrecuentes aún, que siguen provocando titulares.

Aquel órgano de gobierno que gobierna la TI sin tener la capacitación adecuada, desgobierna; y si delega en un gestor u órgano técnico, abdica de sus responsabilidades. Si un gestor u órgano técnico asume funciones propias del órgano de gobierno, lo está usurpando.

Por ello, no entiendo la caterva de ‘gobernantes’ que a veces se observa en diversos escalones del organigrama corporativo —salvo quizá en los de cabecera, precisamente donde el gobierno debiera radicar—. Como si las comparsas hubieran asaltado la guardarropía del teatro y todos se hubieran hecho con casacas y guerreras, casi ocultas bajo tanto galón y entorchado. 

Los reguladores

Los reguladores parecen oscilar —influidos por los agentes sociales— en busca de un equilibrio entre el déficit y el exceso de regulación. Es una situación parecida al juego de cartas de las ‘siete y media’ (parecido a blackjack o veintiuna), situación que un autor español inmortalizó en los versos: “juego vil / que no hay que jugarlo a ciegas,/ pues juegas cien veces, mil, / y de las mil, ves febril / que o te pasas o no llegas” [ii].

Pero además, esa oscilación muy retardada respecto a los escándalos de desgobierno, se me antoja que viene teniendo lugar en torno a un listón francamente bajo, insuficiente.

No obstante, en algunos países ha habido avances prometedores. Sorprende mucho que —en un mundo altamente conectado, en tiempo real; aparte de viajes, congresos y otros intercambios— muchos reguladores mantengan tan altas inercias, introduzcan mejoras meramente decorativas y desdeñen emular a los pioneros.

¿Qué perversa dinámica sociopolítica mantiene a unos reguladores de espaldas a otros en su producción? ¿Qué mantiene, en general, ese listón tan bajo? Lo ignoro. 

La formación en TI

Parece evidente que hay un déficit cuantitativo y cualitativo global de formación de talento en TI. El excelente reciente número 133 de la revista Sistemas trató en detalle el tema.

Aparte de la gran diversidad de perfiles profesionales convencionalmente considerados necesarios, creo importante insistir en que son tan necesarios perfiles computacionales (computer sciences) cuanto perfiles sistémicos (sistemas generales e information systems). Los primeros están generalmente bien cubiertos (pienso en España) por las Escuelas de Ingeniería Informática; los segundos, insuficientemente, a mi juicio, en esas y otras escuelas de ingeniería y en otros estudios (económicas, administración…).

También se necesitan perfiles transdisciplinares y de éstos, aunque fueren una minoría, aquellos que puedan servir al interfaz gobierno-gestión: principios de economía, de organización, estudio del valor y del riesgo, gestión de programas y proyectos, recursos humanos, seguridad, resiliencia… además de sólidos fundamentos de TI.

Ignoro si las universidades en su conjunto están dispuestas y preparadas para reducir la brecha tradicional entre su producto y el que el mercado demanda. Opino que aquellas que, además de sus titulaciones académicas, facilitan a los alumnos la obtención de alguna de las certificaciones profesionales reputadas, establecen una pauta que se debería generalizar. Creo que los moocs (cursos virtuales abiertos masivos) que cada vez ofrecen más universidades de prestigio internacional moverán a muchas universidades a alinearse o serán preteridas.

* * *

Este artículo fué publicado originalmente por la Revista Sistemas, nº 136, septiembre 2015, editada por ACIS (Asociación Colombiana de Ingenieros de Sistemas). Referencia: Columnista. Mi ignorancia del gobierno de TI" – Manolo Palao.   

-------------------------------------------

[i] M. Jourdain, en: Molière. El Burgués Gentilhombre. Acto II, escena IV. 1670.

[ii] Pedro Muñoz Seca. La Venganza de Don Mendo, 1918.  

 

Publícitis

To find out more about the cookies we use and how to delete them, see our privacy policy.

I accept cookies from this site.
EU Cookie Directive plugin by www.channeldigital.co.uk