Existen infinidad de ejemplos dentro del software que reflejan el salto exponencial que año tras año vienen significando determinados avances tecnológicos para el conjunto de la ciudadanía mundial.
Hoy día, sin salir de casa, sentado cómodamente en el sillón de un escritorio, desde cualquier portátil, equipo de sobremesa, Tablet o Smartphone uno puede tranquilamente gracias al software (unido a la evolución tecnológica y mejora del hardware) consultar en tiempo real el parte meteorológico de Valencia. Además, podría consultar el medio más económico para ir hasta ese lugar, comprar unos billetes de avión y reservar al mismo tiempo una mesa en un restaurante de moda de la ciudad, con tan solo unos cuantos clics de ratón y una cuenta Paypal. Cotidiano, ¿verdad?
Sin embargo, nada de eso sería posible si antes alguien no hubiera desarrollado los navegadores web. Ya sea a través de iExplorer, Firefox, Chrome o Safari, los navegadores web nos sitúan ante una ventana que nos da acceso al consumo de un montón de servicios y productos que nos ahorran tiempo, dinero y esfuerzo sin salir de casa. Pero, ¿fue realmente este el objeto para el que se diseñó el primer navegador web?
La respuesta es no. Su creador, Timothy John Berners-Lee tuvo la brillante idea a primeros de los años 90 del siglo pasado de combinar Internet e hipertexto (HTTP y HTML) con la finalidad de facilitar compartir y actualizar la información entre sus colegas investigadores del CERN en Europa. Un desarrollo tecnológico, a través del software, de consecuencias tremendamente imprevisibles y drásticamente evidentes 27 años después, que, entre infinidad de cosas, ha permitido a las empresas colocar sus catálogos de productos y servicios, al alcance de cualquier potencial consumidor, a lo largo y ancho del globo terráqueo sin tener que salir de casa. Sin duda, una revolución para el comercio internacional.
Curiosamente, no es el único ejemplo con gran repercusión en el CERN.
Dado el amplio número de datos e información que el LHC (Large Hadron Collider) genera (se estima que alrededor de un petabyte por segundo) se hace necesaria una gran capacidad de almacenamiento y procesamiento de datos.
Para conseguirlo el CERN coordina el Wordwide LHC Computing Grid (WLCG), una infraestructura de computación global cuya misión es proveer de recursos de computación para almacenar, distribuir y analizar los datos generados por el LHC permitiendo a cualquier investigador en cualquier parte del mundo tener acceso esté donde quiera que esté.
Ian Foster y Carl Kesselman introdujeron este concepto hacia el año 1998 poniendo todo su empeño en el desarrollo de esta tecnología y dando lugar al software libre para la construcción de Grids computacionales Globus Toolkit. Pese a lo positivo del concepto y que permite analizar y procesar datos que un único equipo tardaría cerca de 600 años en procesar, esta no ha sido la única utilidad que ha tenido el concepto que idearon Foster y Kesselman. Proyectos de software como Emule, Edonkey o Limewire fundamentados en el mismo concepto dieron lugar a finales de los 90, primeros de los 2000 a que ciudadanos de todo el planeta pudieran compartir información libremente contribuyendo al auge de la “piratería” de productos audiovisuales en Internet y su caída en ventas con grandes pérdidas a nivel mundial en el sector industrial vinculado al entretenimiento. Sin duda, Foster y Kesselman nunca previeron estas consecuencias imprevistas, negativas para la industria audiovisual y consideradas positivas por todos aquellos que vulneran los derechos de propiedad intelectual de tantos profesionales del sector.
Aunque también se puede considerar, que Foster y Kesselman han contribuido de alguna manera, al surgimiento de proyectos como SETI@home. Proyecto que busca vida inteligente más allá de nuestro planeta sirviéndose de un software que dispone de miles de ordenadores repartidos por Internet que ceden tiempo de procesamiento, cuando no están siendo utilizados, para analizar señales buscando vecinos en lejanas galaxias.
El software ha evolucionado drásticamente pasando de ser un mero producto a convertirse en un servicio en continua evolución. Un último ejemplo de esto es la computación en la nube. Concepto atribuido a John McCarthy responsable entre otras cosas de acuñar el termino “inteligencia artificial” sugirió públicamente, en 1961 durante un discurso para celebrar el centenario del MIT, que la tecnología de Time-Sharing de las computadoras podría conducir a un futuro donde aplicaciones específicas podrían venderse como un servicio. Y no se equivocaba. Hoy día, Amazon, Google, Microsoft, Apple tienen servicios desarrollados con aplicaciones en la nube desde las que poder trabajar cotidianamente sin necesidad de tener las mismas instaladas en tu computadora. Solo es necesario, un equipo de hardware compatible y una conexión a Internet.
Fácil, sencillo y directo. Paquetes de ofimática tan conocidos y extendidos como Office han evolucionado hasta convertirse en un paquete virtual en la nube y accesible desde cualquier lugar del mundo. Lo que en parte conlleva para nuestra sociedad del siglo XXI que el trabajo y las responsabilidades asociadas al mismo en muchas ocasiones nos persigan allá donde quiera que vayamos impidiendo desconectar y generando un aumento considerable de casos de estrés y ansiedad en un amplio porcentaje de la población mundial.
Son incontables las consecuencias imprevistas asociadas a la evolución de la tecnología en nuestro día a día e innumerables los retos a los que dicha evolución nos lleva y nos llevara a enfrentarnos. Quizás sea el precio del progreso, lo que queda de manifiesto es que a medida que el software evolucione, la sociedad, el ser humano evolucionara con él también. Por ello, es importante ser consciente e intentar adaptarse dentro de lo posible a todos estos continuos cambios, fruto de pequeños avances, que tienen repercusión y consecuencias imprevistas en nuestro porvenir, siempre, sin dejar de mirar con optimismo e ilusión dicho futuro.