Follow us on:
Perspectives

Articles tagged with: Maria Jose de la Calle

Datos y el Talento Analítico

Monday, 08 June 2015 Maria Jose de la Calle Posted in iTTi Views

El software empresarial como ERP, CRM, BI, etc aparte de proporcionar una ayuda para la gestión de la empresa en la forma de aplicaciones y modelos de datos más o menos ajustables a cada entidad, tienen, sobre todo las BI, una función que es la de proporcionar lo que se ha dado en llamar "inteligencia de negocio" en la forma de informes, dirigida a los usuarios finales que no son otros que los tienen que tomar decisiones sobre el mismo. 

Hoy día, la "inteligencia de negocio" a pasado al llamado "Big Data" (grandes datos), término bajo el que se agrupan, por una parte el concepto de una tal cantidad de datos que desborda la capacidad del software habitual para ser capturados, gestionados y procesados en un tiempo razonable, y por otra, y por extensión, las herramientas necesarias para tratar dichos datos, y sus productos.

La tecnología ha evolucionado para tratar con los tipos de datos que ahora se producen -y se recogen- en cualquier sitio tanto por personas como por máquinas. La capacidad de acceso a datos útiles crece continuamente, pero, según el estudio llevado a cabo por el MIT y SAS "TheTalent Dividend" [i] , las empresas no son ahora más eficaces para definir una estregia utilizando el conocimiento que los datos proporcionan. Ya hay tecnología suficiente para recoger, almacenar, clasificar, extraer y procesar los datos que sean necesarios en cada caso, pero no se sabe como llegar desde ellos al negocio.

El problema que se plantea, según este estudio, va un poco más allá de la tecnología y se trataría de responder a la pregunta de cómo crear valor para el negocio a partir de la gran cantidad y variedad de datos de los que se dispone. Uno de las conclusiones del estudio es que las empresas que combinan habilidades analíticas con el conocimiento del negocio tienen más posibilidades de obtener ventajas competitivas con los datos.

Parece claro que si lo que se busca son herramientas de ayuda a la toma de decisiones, haya que conocer el negocio para hacer las preguntas adecuadas en su propio lenguaje, pero estas deben ser traducidas a una perspectiva de los datos para tratar con y obtener de ellos las respuestas buscadas. Los informes extraídos de los datos que se presenten deben ser completos, precisos, relevantes y consistentes, y entregados en tiempo. 

Esto parece que constituye una gran brecha, a cerrar por las personas que posean habilidades analíticas, con conocimientos de negocio, por una parte, y técnicos por otro.

No es de extrañar, pues, que el rango de dichas habilidades, perfiles y categorías en las organizaciones se haya ampliado en estos últimos años. No sólo analistas (data analysts) sino también administradores de datos (data stewards) o científico de datos (data scientists). También, nuevos perfiles ejecutivos como chief data officers, chief analytics officers o chief medical information officers, han surgido para garantizar que el conocimiento analítico puede ser aplicado a temas de estrategia de negocio. 

Para cubrir las necesidades de dichos perfiles, las empresas recurren a distintos planes con una serie de acciones como:

• Dar preferencia a las personas que ya tienen habilidades analíticas cuando contratan o para promocionarlas.

• Desarrollar las habilidades analíticas en su propio personal a través de formación.

• Integrar nuevos talentos con trabajadores más tradicionales dedicados a los datos.

Por otra parte, debido a la creciente demanda de estos nuevos perfiles, en EEUU hay ya más de 70 masters en estas materias, para ayudar a futuros profesionales a desarrollar dichas habilidades.

En España la Universidad de Valladolid (UVA) ha decidido no quedarse atrás y ofrece el primer título que se imparte en España sobre Big Data, según fuentes de la institución universitaria, con un doble grado de Estadística e Informática que ha comienzado a impartirse este curso 2014/2015. [ii]

* * *

Este artículo fué publicado originalmente por ComunicacionesHoy, nº 143, junio 2015. Referencia: Análisis/ Opinión, pg. 13 – "Datos y el Talento Analítico" – María José de la Calle. 

-----------------------------------------

[i] S. Ransbotham, D. Kiron and P.K. Prentice, “The Talent Dividend: Analytics talent is driving competitive advantage at data-oriented companies,” MIT Sloan Management Review, April 2015. URL: http://sloanreview.mit.edu/projects/analytics-talent-dividend/ último acceso 8/06/2015

[ii] http://www.elmundo.es/economia/2014/07/15/53c3f28322601d0f1e8b4593.html último acceso 8/06/2015 

 

17 de mayo Día mundial de internet: Internet para todos

Sunday, 17 May 2015 Maria Jose de la Calle Posted in iTTi Views

Banda Ancha: alta velocidad de acceso a internet siempre disponible y capaz de proveer de múltiples servicios simultaneamente [i].

"La integración digital reviste una importancia crucial para garantizar que todas las personas y todas las sociedades avancen al unísono"[ii]. 

iTTi se suma a la celebración de este día con este pequeño artículo que pone el acento en la esperanza de que Internet sea universal como bien de primera necesidad, y, por tanto accesible para todos en cualquier lugar del planeta. La brecha digital significa exclusión social, todo lo contrario a lo que se supone que internet significa como lugar común de inclusión para todos, dónde se hace posible lo que manifiesta el artículo segundo de la Carta de Declaración de Derechos Humanos de Naciones Unidas: "... sin distinción alguna de raza, color, sexo, idioma, religión, opinión política o de cualquier otra índole, origen nacional o social, posición económica, nacimiento o cualquier otra condición."[iii]

Muchos son los documentos en los que se resalta la importancia, como motor de desarrollo social y económico, de construir una sociedad de la información en la que puedan participar todas las personas, sin exclusión, creando contenidos, servicios y aplicaciones, utilizándolos y compartiéndolos libremente y de una manera fiable. 

Para conseguir esto hay dos acciones importantes a tomar, una tecnológica, haciendo llegar a todos los individuos la posibilidad de conexión -la banda ancha- y otra política, entre los distintos países del planeta y dentro de un país, donde armonizar los derechos y deberes de todos en el espacio público que constituye el ciberespacio e impulsar medidas para su implementación y uso. 

* *

En el mes de mayo de 2010 UIT [iv] y la UNESCO [v], crearon la Comisión de la Banda Ancha para el Desarrollo Digital [vi] en respuesta a un llamamiento del Secretario General de las Naciones Unidas, Ban Ki-Moon, dentro del programa de "Objetivos de Desarollo del Milenio" [vii]. La Comisión aspira a promover la importancia de la banda ancha en la agenda política internacional ya que la expansión del acceso a esta última en cada país es clave para acelerar el progreso hacia las metas del mienio para la fecha objetivo del 2015, en el que, por cierto, ya estamos.

En el 2011 la Comisión acordó un conjunto de cuatro objetivos que todos los países alrededor del mundo deberían luchar por alcanzar, en el 2015, con el fin de asegurar la participación de toda su población en las sociedades del conocimiento del mañana, y posteriormente, en el 2013 amplió a un quinto, este con un horizonte temporal del 2020. Estos objetivos son los siguientes:

1. Obligación de una política universal de banda ancha: todos los países deben tener un plan nacional para el despliegue de la banda ancha.

2. El precio del servicio de conectividad de la banda ancha debe ser asequible para la población.

3. La conexión de los hogares a la banda ancha, como una de las mejores formas de atraer a las personas al uso de internet. Se fija un objetivo del 40% de los hogares en los países en desarrollo.

4. Conseguir conectar al 60% de la población en todo el mundo.

5. Conseguir la igualdad de sexo en el acceso a la banda ancha.

Como estamos en el 2015 sería bueno conocer el estado del arte en el cumplimiento de estos objetivos. Para ello, la Comisión ha publicado su último informe [viii], en el que se encuentran los siguientes datos:

1. El 71% de los países tienen un plan nacional para el despliegue de la banda ancha. (Datos de mediados del 2014).

2. Suponiendo que las personas pueden permitirse el acceso a la banda ancha si el coste es menor de un 5% de sus ingresos anuales, el 32% de la población en los países en desarrollo y el 1,5% en los países desarrollados no pueden permitirse pagar el acceso a la banda ancha. (Datos del 2013). Esto supone 1,2 billones de personas que no pueden permitirse el acceso fijo a banda ancha, y 2,6 billones el acceso móvil.

3. El 78% de los hogares en los países desarrollados tienen acceso a internet y el 31% de los hogares en los países en desarrollo. El objetivo del 40% parece que no va a ser fácil de alcanzar.

4. El 78% de la población en los países desarrollados está conectado y el 32% en los países en desarrollo. El objetivo del 60% mundial parece que no se va a conseguir habida cuenta de que esto son datos de finales de 2014, y esto supone una media del 40%.

5. La diferencia por sexos en el acceso a internet es de un 2% menor en la mujer que en el hombre en los países desarrollados y un 16% en los países en desarrollo, con datos del 2013. El objetivo de igualdad no está conseguido y, lo que parece más sorprendente -y alarmante- es que ni siquiera en los países desarrollados. 

* *

Por otra parte, hay iniciativas tecnológicas para proporcionar conectividad en cualquier punto del planeta, no sólo en zonas habitadas, como el proyecto Loon, de Google, que, según se describe en su página web [ix], se compone de una red de globos que viajará sobre el límite con el espacio exterior y está pensado para conectar a las personas que habitan zonas remotas o rurales y para llegar a las zonas con falta de cobertura. 

Otra solución tecnológica pasa por el uso de nanosatélites que, según un artículo de Forbes [x], de 2013, por su pequeño tamaño, tan pequeños como 10 cm3, cuesta menos de 1 millón de dólares construirlos y enviarlos al espacio, y estarían disponibles para cualquier sitio. 

Un ejemplo del uso de satélites para Internet, es el proyecto Outernet [xi], el cual distribuye contenidos de Internet, desde el espacio, de forma gratuita, y que a comienzos del 2016 lanzará tres nanosatélites. 

Estas soluciones tecnológicas resuelven el problema del acceso a internet en cualquier parte del planeta, proporcionando ubicuidad, y, por otra, y lo que sería deseable, el precio de ese acceso se reducirá considerablemente al entrar a competir estas nuevas soluciones con las actuales, que son locales.

* *

Falta mucho por hacer, pero con voluntad veremos el planeta, de verdad, como una aldea global, si no físicamente, al menos virtualmente al alcance de nuestros dedos.

Todos conectados y trabajando juntos ... 

* * *

--------------------------------------------

[i] Definición proporcionada por la Comisión de la Banda Ancha para el Desarrollo Digital en su último informe sobre el estado de la banda ancha, 2014. url: http://www.broadbandcommission.org/Documents/reports/bb-annualreport2014.pdf. último acceso 16/05/2015

[ii] Carta abierta de la Comisión de la Banda Ancha para el Desarrollo Digital a la Conferencia de Plenipotenciarios de la UIT de 28 de octubre de 2014. url: http://www.broadbandcommission.org/Documents/open-letter-itu-pp14-es.pdf. último acceso 16/05/2015

[iii] url: http://www.un.org/es/documents/udhr/ último acceso 16/05/2015

[iv] La UIT (Unión Internacional de Telecomunicaciones) es el organismo especializado de las Naciones Unidas para las tecnologías de la información y la comunicación – TIC url: http://www.itu.int/es/pages/default.aspx último acceso 16/05/2015

[v] Organización de las Naciones Unidas para la Educación la Ciencia y la Cultura. url: http://www.unesco.org/new/es/unesco/ último acceso 16/05/2015

[vi] url:http://www.broadbandcommission.org/about/Pages/default.aspx último acceso 16/05/2015

[vii] url: http://www.un.org/es/millenniumgoals/ último acceso 16/05/2015

[viii] url: http://www.broadbandcommission.org/Documents/reports/bb-annualreport2014.pdf. último acceso 16/05/2015

[ix] url: http://www.google.es/intl/es-419/loon/ último acceso 16/05/2015

[x] url: http://www.forbes.com/sites/techonomy/2013/11/10/nanosatellites-will-give-everyone-access-to-space/ último acceso 16/05/2015

[xi] url: https://www.outernet.is/en/ último acceso 16/05/2015  

 

Big Data y el sector financiero

Monday, 11 May 2015 Maria Jose de la Calle Posted in iTTi Views

El término Big Data (grandes datos) hace referencia a una tal cantidad de datos que desborda la capacidad del software habitual para ser capturados, gestionados y procesados en un tiempo razonable.

La utilidad última de los Big Data es la toma de decisiones. Se emplea, por ejemplo en los motores de recomendaciones en la web que sugieren productos a comprar o personas con las que se puede uno llevar bien o a las que interesaría conocer, que ayudarían a decidir qué productos adquirir o con quién relacionarnos.

Para ello las empresas de internet mantienen modelos estadísticos de cada uno de nosotros, nuestras vidas y nuestras costumbres -los famosos perfiles-, según el MIT en su artículo "The Power to Decide" ("El poder para decidir"). 

En el mundo financiero, en las bolsas de todo el mundo hay robots que operan en los mercados (trading bots) mediante algoritmos y soluciones heurísticas de un gran número de variables y datos, procesados a gran velocidad, sin intervención humana. En el extremo están las operaciones bursátiles de alta frecuencia -HFT, High Frecuency Trading-, que toman posiciones antes de que ningún operador humano (de la competencia) haya tenido tiempo de hacerlo.

Las empresas pioneras en tratar los grandes datos han sido las que tenían por una parte dichos datos, y por otra, la tecnología para tratarlos, es decir, las empresas tecnológicas: Amazon, Google, Apple o PayPal.

No es de extrañar que, al igual que en otros sectores como la prensa (Amazon con la compra de "The Washington Post) o la automoción (Google y su cohe automático), estas empresas estén empezando a ofrecer servicios que antes eran privativos del mundo financiero, como los pagos. Según McKinsey en su artículo "The digital battle that banks must win" ("La batalla digital que los bancos deben ganar"), estos actores tecnológicos están amenazando fuentes críticas de ingresos para los bancos, como son las comisiones sobre las transacciones de los particulares. 

Como afirma Francisco González, presidente del BBVA, en la publicación "C@mbio" del 12/2013 "Para los bancos, la buena noticia es que tienen una importantisima ventaja competitiva: el gran volumen de informacion del que ya disponen acerca de sus clientes. El reto es transformar esa informacion en conocimiento y utilizar este conocimiento para ofrecer a los clientes lo que desean." 

Pero si comparamos estos datos bancarios con los que ya tienen y generan minuto a minuto las empresas tecnológicas ya mencionadas, tanto en cantidad de individuos como en variedad de contenidos, que, analizados son una fuente de conocimiento sobre su comportamiento, estas últimas estarían mucho mejor posicionadas, ya que, además, disponen de la última tecnología y lo llevan haciendo más tiempo.

Tanto en los casos de ayuda a la toma de decisiones -la máquina sugiere varias alternativas de actuación- como en aquellos en que es la propia máquina la que actúa, la base es la misma: recogida de grandes datos, buenos algoritmos de procesamiento y potencia de cálculo para llevarlos a cabo. De estos tres factores, uno es de conocimiento del negocio -los algoritmos-, los otros dos son de tecnología.

A las empresas tecnológicas, por tanto, sólo les faltaría conocer el negocio -bancario-, y para esto tienen varias soluciones como pagar a las personas que lo tienen o comprar un banco.

Y a los bancos avanzar con la tecnología. La competencia de los bancos no es otro banco sino las empresas tecnológicas.

Dado que las TI son un componente esencial del negocio, es necesario que los consejos de administración adopten proactivamente decisiones acerca de la aplicación y el uso que se quiera hacer de las TI. De esta manera se conseguirá la transformación digital de los bancos, condición indispensable para su supervivencia.

* * *

Este artículo fué publicado originalmente por ComunicacionesHoy, nº 142, mayo 2015. Referencia: ESPECIAL / Banca y Seguros, pg. 26 – "Big Data y el sector financiero" – María José de la Calle.

 

La Internet de Todo y de Todos

Thursday, 09 April 2015 iTTi, Innovation & Technology Trends Institute Posted in iTTi Views

María-José de la Calle

Miguel García-Menéndez

Permítanos sumarnos, desde iTTi, a las actividades que, con motivo de la celebración del Día Internacional de la "Internet de las Cosas" (IoTDay), están teniendo lugar en la jornada de hoy. Y permita que lo hagamos con una reflexión acerca de los beneficios -algunos, al menos- de este nuevo paradigma. Sirva ello de contrapunto a anteriores análisis que, sobre los riesgos vinculados a la "IoT", hemos ido recogiendo en nuestras "Perspectives". Riesgos relacionados con el peligro que puede suponer la interconexión -a través de la Red- de aquellos objetos que nos rodean y que, por dicho medio, intercambian datos -bien entre ellos mismos, bien con nosotros- para alcanzar alguna meta determinada.

Ejemplo de ello son piezas como "'Internet de las cosas' o la peligrosa transformación del mundo real en virtual", la cual ofrece una perspectiva sobre la inseguridad que puede causar que las cosas del mundo real hereden las debilidades de los dispositivos computacionales que las tratan e interconectan, o "Troyanos materiales o la seguridad de las 'cosas'", que presenta la problemática de los troyanos 'físicos' (integrados en el hardware) que puede incorporar "de fábrica" cualquier producto o componente electrónico, de los que constituyen nuestro actual modelo de vida: automóviles, fotografías y ‘youtubes’, teléfonos, tráfico, iluminación, distribución de electricidad, agua, gas, sensores, controles, parquímetros, sanidad, equipos médicos, meteorología, robots fabriles, satélites, aviónica, tráfico aéreo, aulas virtuales, teleasistencia, el comercio y el ocio en la Red, y, aún, un muy largo etcétera. 

A partir de la relación dada en el párrafo anterior, cabría interpretar las consecuencias de la adopción de esos mismos objetos desde una perspectiva de las oportunidades y de los beneficios.

Tómese como ejemplo el automóvil, protagonista de la "Internet de los Coches" (o "de los Carros", como sin duda preferirán muchos de Uds.). Actualmente, y gracias a los mecanismos de posicionamiento por satélite que puede incorporar, cualquier vehículo sería capaz de guiarnos hasta nuestro destino. En el caso de los coches [hiper-]conectados las funcionalidades se amplían: mantienen el contacto y un permenente intercambio con el taller, gracias a una serie de sensores que permiten conocer el estado del propio vehículo, advierten de la necesidad de realizarles una próxima revisión, se comunican con sensores urbanos, los cuales informan sobre el estado del tráfico sugiriéndonos rutas alternativas o estacionamientos cercanos donde aparcar, etc. Nadie pondrá en tela de juicio que todo esto facilita la vida. Más aún lo hará el vehículo del futuro -ya presente- dotado de capacidades autónomas (vehículo autónomo o vehículo sin conductor) que permitirá un uso más generalizado del automóvil entre el colectivo de personas con alguna incapacidad.

Un segundo ejemplo lo constituyen las llamadas "ciudades inteligentes", las cuales estarían pobladas, a su vez, de domicilios inteligentes -permítanos jugar con el término "Internet de las Casas"-. El ser humano vive, principalmente, en grandes núcleos urbanos. Este hecho conlleva una serie de problemas derivados de la elevada concentración de personas, de forma tal, que cualquier incidente sería susceptible de afectar a una gran cantidad de individuos. Para minizar los efectos de dichos incidentes y ofrecer la respuesta más rápida posible, sería preciso disponer de: a) observadores, esto es, cámaras, sensores, medidores, etc., que permitiesen conocer el estado de las cosas en cualquier punto de la ciudad, en cualquier momento; b), acceso (vía comunicaciones) a todos los datos obtenidos por los mencionados "observadores", que facilitasen la toma de decisiones; y c), canales y mecanismos que habiliten una rápida comunicación al ciudadano sobre la mejor forma de actuar. Todo ello requeriría un amplio despliegue de máquinas interconectadas a modo de malla inteligente que cubriría toda la ciudad. 

Extendiendo este concepto de servicio público llegaríamos a hablar, también, de los datos tomados por los satélites que sirven tanto para la previsión meteorológica cuanto -junto a otros sensores- para advertir sobre la inminencia de terremotos o erupciones volcánicas. Recientemente han aparecido empresas dedicadas a la fabricación de nanosatélites, mucho más baratos que los que se tenían hasta ahora tanto en su construcción como en su puesta en órbita, ya que por su menor tamaño y peso necesitan mucha menos energía [i]. 

Finalmente, al igual que en los ejemplos anteriores, también las personas podemos dotarnos de sensores vinculados a objetos considerados de uso común. Hoy día, estos permiten medir los pasos que damos, analizar el aire que exhalamos [ii][iii], nuestro ritmo cardíaco y un largo y creciente etc. Estos dispositivos para llevar encima (del inglés "wearable") tienen una variada apariencia: relojes, pulseras, gafas, etc. Con los datos que proporcionan, se nos puede advertir de cualquier situación anómala en nuestro estado de salud y aconsejar sobre qué hacer. En una comunicación entre máquinas, como también ocurría con los vehículos y los talleres, nuestro propio centro de salud quedaría avisado, de modo que, desde allí recibiríamos la ayuda o las recomendaciones pertinentes. 

Gran parte de estos sensores no constituyen ninguna novedad. Lo verdaderamente innovador se encuentran en las actuales capacidades de comunicación entre ellos y de tratamiento de la enorme cantidad de datos que generan. De este modo ayudan a proporcionar una imagen más precisa de casi todo y una fuente de conocimiento no sólo para dar respuestas a lo inmediato, sino, también, en el medio y largo plazo, de forma que todo ello habrá de permitir mejorar las condiciones de vida de la humanidad. Sirva de ejemplo los estudios sobre el clima y cómo influyen en la producción de alimentos [iv] o en la vida en el planeta en general [v]. 

Como señalaba Bill Gates hace unos días, en un memorando remitido a los empleados de Microsoft con motivo del cuadragésimo aniversario de la empresa, es "hacer que el poder de la tecnología llegue a todo el mundo, conecte a todo el mundo y en cualquier lugar". Es hacer que todo y todos estemos conectados y trabajando juntos.

... cosas y personas. La "Internet of Everything" (IoE) y la "Internet of Everyone" (IoEO).

* * *

iTTi, 9 de abril de 2015, Día internacional de la "Internet de las Cosas" (IoTDay

---------------------------------------

[i]  http://www.economist.com/news/technology-quarterly/21603240-small-satellites-taking-advantage-smartphones-and-other-consumer-technologies 

[ii] http://www.designcouncil.org.uk/knowledge-resources/case-study/owlstone 

[iii] http://www.dailymail.co.uk/health/article-2613856/Theres-app-Mobile-phone-breath-test-check-signs-cancer.html 

[iv] ftp://ftp.fao.org/docrep/fao/010/i0112s/i0112s03.pdf 

[v] http://www.cell.com/trends/ecology-evolution/abstract/S0169-5347(05)00162-X?_returnURL=http%3A%2F%20%2Flinkinghub.elsevier.com%2Fretrieve%2Fpii%2FS016953470500162X%3Fshowall%3Dtrue 

 

“Internet de las cosas” o la peligrosa transformación del mundo real en virtual

Thursday, 27 November 2014 Maria Jose de la Calle Posted in iTTi Views

“[Bajo] la idea de integrar los ordenadores de forma general en el mundo, [...] componentes especializados, de software, mediante cables, ondas de radio e infrarrojos, serán tan ubicuos que nadie hardware y conectados advertirá su presencia”. Weiser, M. “The Computer for the 21st Century”. Scientific American, Inc., 1991. 

“La informática ubicua se caracteriza, fundamentalmente, por la conexión de cosas del mundo real mediante la computación. Esto tendrá lugar a muchas escalas, incluida la microscópica.” Weiser, M. & J.S. Brown. “The Coming Age of Calm Technology”. Xerox PARC, 1996.

Como adelantaba Mark Weiser a principios de los noventa, llevamos años gozando de un nivel de ubicuidad informática -aún no estrictamente en el sentido que él apuntaba- que hace posible que hoy día las personas podamos, por ejemplo, comunicarnos unas con otras de forma remota e instantánea gracias a Internet. Para ello empleamos múltiples elementos -hardware y software- que, no obstante, no están exentos de problemas: los dispositivos que hacen posible el “milagro” adolecen de vulnerabilidades que pueden ser explotadas con objeto de actuar sobre la información que aquellos albergan, transmiten y, en definitiva, tratan.

En el contexto de la informática tradicional esos “problemas” han trastocado los entornos tecnológicos, tanto del ámbito profesional, como del personal, provocando que la información tratada en unos y otros se haya visto afectada en sus diferentes dimensiones de eficiencia, eficacia, confidencialidad, integridad, disponibilidad, fiabilidad y conformidad [i]. Las consecuencias de esta debilidad generalizada que muestra el mundo virtual, han tenido en gran medida naturaleza económica (deterioro de la imagen corporativa, pérdida de ventaja competitiva, pérdidas financieras directas, etc.), más allá de cuanto tiene que ver con la privacidad personal. 

Actualmente, el concepto de “Informática ubicua” (UC, por sus siglas en inglés -ubiquitous computing-) introducido por Weiser en 1988 [ii], parece estar comenzando a convertirse en lo que Kevin Ashton denominaría una década después “Internet de las cosas” [iii]. Con ello se está produciendo un efecto de traslación del mundo físico, real, al mundo virtual. 

Dicha replicación de los objetos cotidianos del mundo físico en sus equivalentes digitales constituirá, sin duda, un salto de gran importancia hacia esa era de la “tecnología de la calma” anunciada por Weiser, en la que el sustrato tecnológico que hace posible nuestras vidas diarias terminará pasándonos inadvertido. 

Sin embargo, esa misma computarización a gran escala de las cosas de la vida real no hará sino ampliar el margen de inseguridad de la vida misma: automatismos diseñados para nuestro confort doméstico - termostatos u otros- cuyas funcionalidades pueden ser “manipuladas” de forma remota, dando al traste con el referido confort; vehículos digitalizados cuyas respuestas autónomas ante determinados eventos de tráfico pueden resultar modificadas o anuladas, poniendo en riesgo nuestras propias vidas; sistemas de control de las redes de suministro que nos proporcionan energía eléctrica, agua o gas natural, que pueden ser controlados -también en perjuicio nuestro- desde la comodidad de una habitación localizada a decenas de miles de kilómetros, etcétera. 

En este nuevo escenario, las cosas del mundo real heredan las debilidades de los dispositivos computacionales que las controlan e interconectan. 

Las consecuencias para, y en el mundo físico se acrecentan hasta alcanzar magnitudes hasta ahora insospechadas. Y ello debido en gran medida a la interacción directa entre dispositivos en un diálogo productor/consumidor o M2M (del inglés “machine-to-machine”), propio del “Internet de las cosas”. Fruto de dicho diálogo, la cantidad de datos generados, tratados en tiempo real, transmitidos, etcétera, crece exponencialmente. Y con ello la posibilidad de que sean recogidos, alterados o eliminados sin nuestro conocimiento o consentimiento para fines muy diversos. 

Por consiguiente, se hace ineludible actuar desde las causas raíz, habilitando sistemas computarizados libres de vulnerabilidades, que permitan minimizar los efectos negativos sobre la vida cotidiana de las personas. Y se hace igualmente oportuna una reflexión en relación a los principios y criterios sobre los que habrá de cimentarse la transformación del mundo real en ese nuevo mundo digitalizado, esa nueva capa virtual, réplica del mundo que habitamos.

* * *

Este artículo fué publicado originalmente por la revista mejicana Magazcitum el 10/10/2014. 

------------------------------

[i] Los siete criterios de la información. Citados en “COBIT 5. A business framework for the governance and management of enterprise IT” (2012) y recogidos en “Cobit 4.1” (2007) y versiones anteriores del modelo de ISACA. Determinan las cualidades que ha de cumplir la información para que sea válida en la toma de decisiones empresariales: eficiencia, eficacia, confidencialidad, integridad, disponibilidad, fiabilidad y conformidad. url: http://www.isaca.org/cobit/pages/default.aspx?cid=1003566&appeal=pr 

[ii] Ya en 1988, Mark D. Weiser hablaba por primera vez de la “informática ubicua” para describir un futuro en el que “ordenadores” invisibles, incrustados en los objetos cotidianos, sustituirían a las PC. 

[iii] El término fue acuñado en 1999 por Kevin Ashton durante una presentación sobre RFID (Radio Frecuency IDentification) para la empresa P&G.

 

Uso de las redes sociales en la empresa: riesgos de seguridad

Friday, 30 August 2013 Maria Jose de la Calle Posted in IT Consequences

Las formas de colaboración en la empresa han ido evolucionando a medida que lo ha hecho la tecnología, desde las reuniones personales y el correo interno -en papel-, al teléfono, correo electrónico, la mensajería instantánea (IM, por sus siglas en inglés), reuniones virtuales por medio de Internet y las redes sociales. 

A excepción del correo en papel, que casi ha desaparecido, las demás formas de colaboración han ido coexistiendo y se está utilizando una u otra dependiendo del objetivo, del tiempo en que se necesite la colaboración o respuesta, y de otros factores como los usos y los husos horarios.

Al contrario de lo que pasó con el teléfono y el correo electrónico, que se extendieron casi a la par en los ámbitos de negocios y privado, la mensajería instantánea y las redes sociales se han popularizado primero en lo personal  y es ahora cuando empiezan a ser usadas en el mundo empresarial.

Según el McKinsey Global Institute[1], 72% de las empresas se valen de las tecnologías sociales principalmente para llegar hasta los consumidores y recoger sus deseos, gustos y necesidades para el desarrollo de productos, publicidad y servicio al cliente. Sin embargo su mayor potencial está en la mejora de las comunicaciones y el intercambio de conocimientos, así como en la colaboración dentro de, y entre empresas.

Al igual que en el ámbito privado, se establecerá un entorno de sujetos “enlazados”, tanto de modo interno a la organización como externo con todas las entidades -clientes, proveedores y en general todos los actores relacionados de una u otra manera con la empresa- con las que esta haya de interactuar: es la empresa extendida.

Las redes sociales ofrecen la posibilidad de una gran apertura respecto a la información accesible por unos u otros -empleados o actores externos a la organización-. Esto que a priori se antoja positivo, ha de ser orquestado adecuadamente para que dicha información siga siendo fidedigna y segura para los objetivos de la organización, a pesar del vertiginoso aumento en el número de individuos y dispositivos que hoy  crean e intercambian dicha información.

La organización debe establecer y poner en marcha una política de segmentación de la información para las personas que se relacionen con ella, sean empleados de la misma o no.

Por otra parte, si uno observa el soporte por el que se produce el intercambio de información, la cantidad transmitida a través de dispositivos móviles es cada vez mayor, lo que se ve favorecido por la constante reducción en tamaño y peso de los dispositivos, unido a un aumento de su potencia y a la ubiquidad de Internet.  Según el último informe de tendencias de la analista Mary Meeker, de la firma KPCB[2], la cifra ha pasado de un 0.9% en mayo de 2009, a 15% en el mismo mes de 2013.

Se transfieren permanentemente documentos del trabajo a ordenadores personales, tabletas, teléfonos inteligentes u otros dispositivos, particulares o corporativos, o se ejecutan aplicaciones en línea sobre información que puede constituir parte de la propiedad intelectual de la empresa. Parte de toda esta información rara vez se elimina de esos  dispositivos móviles. Esto aumenta los escenarios de riesgo pues facilita la posibilidad de intrusión en los sistemas a través de aplicaciones, dispositivos y puntos de acceso a Internet poco protegidos. Además, favorece las fugas o pérdidas de información, por ejemplo, por robo o extravío de los dispositivos.

Otro aspecto fundamental a tener en cuenta en el uso de estas herramientas de colaboración y comunicación social, es el factor humano. Cada vez más la comunicación e interacción entre las personas se produce a través de esas herramientas, pero sin los conocimientos y habilidades desarrollados para su utilización de forma segura.

Se hace necesaria una concienciación sobre las amenazas que dicho uso implica; sobre el posible coste, personal y empresarial, de la pérdida de fiabilidad de la información, o de la información misma; y sobre la relevancia que puede tener la creación, transformación y transmisión a través de medios que resultan no del todo seguros para las necesidades corporativas.

Al hilo de lo expuesto surge la siguiente pregunta: ¿Tiene la empresa el derecho de control sobre la información que se transmite por las redes sociales? Pregunta cuya respuesta cae tanto en el entorno técnico como en el legal, por cuanto tiene que ver con aspectos de privacidad, propiedad intelectual y otros temas.

Para terminar, unas noticias de prensa:

El 7 de junio, los diarios The Washington Post y The Guardian publicaron la existencia de dos programas de espionaje secretos, uno que registra datos de llamadas en EE. UU. y otro que permite a la inteligencia estadounidense acceder a servidores de las principales compañías de Internet y recabar datos directamente de los servidores de Microsoft, Yahoo, Google, Facebook, PalTalk, AOL, Skype, YouTube y Apple.

El 13 de junio, el blog The PrivacySurgeon[3] comentó la noticia de que el gobierno sueco había  decidido prohibir el uso de cualquier producto de la nube de Google -incluyendo calendario, Gmail y Google Drive- dentro de instituciones públicas, ya que consideran que Google puede acceder a la información de los usuarios, y que los usuarios en el sector público no pueden tener la certeza de que los derechos de protección de datos están asegurados.

 

This article was originally released by Mexican magazine "Magazcitum", on August, 30th, 2013. 

 

"Big Data", ¿un nuevo concepto?

Wednesday, 15 May 2013 Maria Jose de la Calle Posted in Data Science

Las siguientes reflexiones tratan de analizar el nacimiento de un concepto que se apoya en, y supera, la estadística y el análisis de datos convencionales, establecidos a lo largo de los siglos, como consecuencia  de la actual explosión en la generación de datos e información sobre personas, máquinas y sus relaciones.

Hace algún tiempo que el término Big Data aparece con frecuencia como fenómeno nuevo, a propósito de nuevas herramientas de ayuda al análisis de datos para fines diversos, fundamentalmente comercial, científico, político, criminal, etc.

Ese análisis está dirigido a obtener información sobre una persona, un grupo de personas o una institución, a partir de comportamientos pasados -datos recopilados- de sus situaciones actuales, relaciones ocultas y, lo que es más discutible, comportamientos futuros de la persona, ente o grupo que se estudia.

Todo ello es fundamental en el proceso de toma de decisiones tanto en el ámbito privado corporativo como en el ámbito público.

Pero esto no es nuevo. Tampoco lo son ni el tratamiento de los datos, propiamente dicho, ni la gran cantidad de datos a tratar.  

La ciencia ha empleado el análisis de datos y se ha enfrentado al tratamiento de una gran cantidad de datos en complejas simulaciones de procesos físicos -Meteorología, por ejemplo-, en investigaciones relacionadas con procesos biológicos y ambientales, etc. Este mismo fenómeno ha sucedido en diversos sectores empresariales -banca, seguros, tarjetas de crédito, terminales de punto de venta, etc. No se puede  dejar de mencionar a las agencias de inteligencia, creadoras de sistemas como ECHELON, ADVISE, NarusInsight, etc.

De igual modo, la Estadística, propiamente dicha, tampoco es una disciplina nueva. De hecho, el término fue acuñado en Alemania -Statistik-, por Gottfried Achenwall en 1749, para referirse al análisis de datos del Estado, es decir, la "ciencia del Estado" (o más bien, de la ciudad-estado), y ya en el siglo XIX el término estadística adquirió su actual  significado de recolectar y clasificar datos de la mano del militar británico Sir John Sinclair (1754-1835).

¿Entonces, por qué un nuevo concepto? ¿Dónde reside la novedad?

Lo que actualmente se entiende por Big Data, es un término aplicado a conjuntos de datos que superan la capacidad del software habitual para ser capturados, gestionados y tratados en un tiempo razonable.

Los tamaños que hoy se señalan para el  Big Data se encuentran en una permanente y creciente evolución. Así, en 2012 se citaban  tamaños entre la docena de terabytes y varios petabytes de datos en un único data set (conjunto de datos).

Sirvan las siguientes cifras como ilustración de lo afirmado:

·        El telescopio de “Sloan Digital Sky Survey” en Nuevo México, que inició su actividad en el 2000, recogió en una década 140 terabytes de información.

·        Wal-Mart maneja más de un millón de transacciones de clientes cada hora, alimentando bases de datos estimadas en más de 2.5 petabytes.

·        Facebook almacena cuarenta mil millones de fotografías.

·        El descifrado del genoma humano implica el análisis de tres mil millones de pares base, lo que inicialmente suponía un esfuerzo de 10 años y ahora se logra en una semana.

Por otro lado, con la llegada de  la miniaturización de los sistemas electrónicos que pueden formar parte de cualquier dispositivo, entre ellos sistemas de medida, y, particularmente, de Internet y su poder de comunicación máquina-máquina y persona-máquina, hoy se dispone de recolectores de datos de todas las actividades humanas por todas partes -tarjetas de crédito, dispositivos móviles, ordenadores, cámaras en la calle y en establecimientos, etc-, y de recolectores de datos de máquinas situadas a nuestro alrededor o sensores ambientales.

Unido a todo ello, ha aumentado en órdenes de magnitud la capacidad de computación de los ordenadores. Ahora cualquiera lleva en su bolsillo un smartphone, con una potencia de cómputo superior a la de los ordenadores de la nave Apolo. 

Consecuentemente, la novedad del Big Data parece estar, únicamente, en su magnitud y en el desarrollo de las herramientas adecuadas para tratar  dichas cantidades  de datos de forma que se obtengan resultados en un tiempo  útil para su aprovechamiento.  

Y no sólo eso,  sino que  los datos producidos son tanto estructurados como no estructurados, lo que supone un reto de almacenamiento y tratamiento.

Finalmente, está además el reto de intentar protegernos organizativa, tecnológica y regulatoriamente.

Así pues, aquí es donde nos encontramos ahora … ante la necesidad de responder a los retos planteados por ese aluvión de datos de manera tal que su análisis permita extraer un conocimiento que resulte valioso para la ciencia, los gobiernos, las empresas, y en definitiva, para la mejora de la calidad de vida de todos nosotros.  

 

La publicación de este artículo ha coincidido con la inauguración oficial del más grande radiotelescopio construido hasta ahora, el ALMA (Atacama Large Millimeter Array). Su funcionamiento consiste en un proceso de “... canalización, recepción, conversión, trasmisión, combinación y análisis” de datos del Universo, que se iniciará en  las  sesenta y seis  antenas parabólicas que lo conforman, y proseguirá en un entramado de ordenadores, uno de los cuales, El Correlacionador, está dotado de  2.912 circuitos impresos, 5.200 cables de interfaz y más de 20 millones de puntos de soldadura, con el objetivo es estudiar la diversidad de objetos y procesos físicos implicados en la formación estelar.

To find out more about the cookies we use and how to delete them, see our privacy policy.

I accept cookies from this site.
EU Cookie Directive plugin by www.channeldigital.co.uk