jueves, 25 de febrero de 2010

Sistemas GPS, vulnerables a ciberpiratas

BBC Ciencia

La tecnología que depende de las señales para la navegación por satélite, los llamados sistemas de posicionamiento global o GPS están cada vez más amenazados por los ataques de hackers, afirman expertos.

Aunque la interferencia del equipo de navegación por satélite con señales de ruido está en aumento, nuevos métodos más sofisticados incluso permiten ahora a los ciberpiratas programar lo que muestran los receptores.

Según los expertos, esto no sólo pone en riesgo al usuario de la navegación satelital sino también a infraestructuras nacionales críticas.

Estas fueron las conclusiones presentadas por la Red de Transferencia de Conocimiento de Sistemas Digitales, un organismo financiado por el gobierno británico, durante una reunión de expertos celebrada en el Laboratorio Nacional de Física en Teddington, Inglaterra.

"Los GPS nos ayudan al transporte, distribución industrial, producción oportuna, operaciones de los servicios de emergencia, e incluso minería, construcción de caminos, agricultura y muchas cosas más" expresó en la conferencia el profesor David Last, expresidente del Instituto Real de Navegación.

"Pero lo que poca gente fuera de la comunidad de expertos reconoce es la coordinación de alta precisión que ofrecen los GPS para mantener nuestras redes de teléfono, internet, transacciones bancarias e incluso la red de suministro eléctrico en internet", agregó.

El experto recordó un fallo en 2004 causado por un solo satélite que provocó caos en las lecturas de navegación satelital.

Pero agregó que "estos fallos de satélites, aunque son dramáticos, no son el principal problema".

"El talón de Aquiles de los GPS son las señales extremadamente débiles que llegan a un receptor".

Cada satélite en la constelación de la navegación satelital emite menos electricidad que un faro de un auto, e ilumina a más de una tercera parte de la superficie de la Tierra a una distancia de más de 20.000 kilómetros.

Esto quiere decir que las señales pueden ser fácilmente interferidas con equipo basado en la Tierra, y esto está causando cada vez más preocupación a los políticos, académicos y empresarios.
Propósito criminal

Esta interferencia puede ser causada de forma no intencional, por ejemplo, con estaciones piratas de televisión. Pero también pueden ser provocadas con un propósito.

Los sistemas militares han llevado a cabo durante mucho tiempo este tipo de interferencia -bloqueando un área con una señal en la frecuencia del GPS- para frustrar los sistemas de navegación enemigos.

Pero ahora cada vez están más disponibles en internet pequeños dispositivos para causar interferencias.

Son versiones portátiles de baja potencia que pueden costar unos US$100 y pueden ser operados durante horas con batería. Su objetivo es "confundir" a los receptores de navegación satelital ubicados a decenas de kilómetros.

Las versiones de alta potencia pueden causar mayores daños tanto en los GPS como en las frecuencias de telefonía móvil.

Lo que es peor, dicen los expertos, con las señales de transmisión fraudulentas, los receptores pueden ser "burlados" no sólo interfiriéndolos con una señal fuerte y ruidosa sino confundiéndolos para que "piensen" que su ubicación o tiempo es distinto del real.

Estos aparatos todavía son muy costosos y sólo están al alcance de lo que los expertos llaman los "genios tecnológicos", pero según el profesor Last, éstos podrían estar en las manos de criminales dentro de uno o dos años.

Una razón obvia para llevar a cabo este tipo de interferencia es, por ejemplo, que cargas valiosas -como autos blindados o rentados- pueden ser rastreadas con el GPS, así que confundir y rastrear a la señal puede resultar en un atraco exitoso.

También pueden alterarse las tarifas y peajes para uso de carreteras que están basadas en la navegación satelital o para bloquear los aparatos de rastreo que se utilizan en autos empresariales.
Diversión

Pero sobre todo, dice el profesor Last, la interferencia y alteración de los GPS es algo irresistible para los hackers, que lo hacen sólo para divertirse.

"Se podría considerar al GPS lo que era una computadora antes de que apareciera el primer virus" dice el experto.

"Si yo me hubiera parado aquí entonces y les hubiera hablado sobre esos riesgos, ustedes me hubieran preguntado ¿por qué se va a molestar alguien en crear un virus?".

"Esta nueva situación es un escenario similar para los hackers".

Ahora, sin embargo, esta "diversión" de los hackers puede significar peligros mucho mayores para los sistemas de transporte como los barcos que utilizan cada vez más navegación por satélite y que con una interferencia de la señal pueden ser dirigidos a una ubicación incorrecta.

Los expertos no saben cuál es la solución inmediata para este problema porque tanto el GPS de Estados Unidos como los sistemas ruso y europeo son igualmente vulnerables.

Durante la conferencia se mencionó el relativamente seguro sistema eLoran basado en la tierra que ya está puesto en práctica pero cuya señal no puede ser recogida por los aparatos existentes.

Los expertos no creen, sin embargo, que la adopción extensa de eLoran o de otro sistema estándar puedan llegar eventualmente a impedir los esfuerzos de interferencia de los hackers y acabar con ellos.

"La navegación ya no sólo es un problema de cómo medir con previsión nuestra ubicación. Eso es algo sencillo" dice el profesor Last.

"Lo difícil ahora es cómo hacerlo de forma confiable, segura y vigorosa".

Artículo original en BBC Mundo

Logran matar células cancerígenas con “nanoburbujas”

La novedosa técnica también ayudará a realizar diagnósticos precoces

Científicos de la Universidad de Rice, en Estados Unidos, han desarrollado una técnica de tamaño nanométrico que permite detectar y tratar a nivel individual las células enfermas del organismo. Combinando nanopartículas de oro y láser, los investigadores crearon unas nanoburbujas brillantes que permiten rastrear y diagnosticar las células enfermas y que, a su vez, también sirven para hacer estallar las células enfermas. Éste es un nuevo avance de la nanotecnología aplicada a la salud, una ciencia que promete el desarrollo de tratamientos cada vez más específicos. Por Yaiza Martinez.


Un equipo de físicos de la Universidad de Rice, en Estados Unidos, ha desarrollado una nueva técnica para distinguir células individuales enfermas y destruirlas con pequeñas explosiones.

Según publica la Universidad de Rice en un comunicado, para conseguirlo, los investigadores Jason Hafner y Dmitri Lapotko utilizaron láser y nanopartículas (partículas de tamaño nanométrico, es decir, de una milmillonésima de metro) de oro.

Diagnóstico y tratamiento celular

Las nanoburbujas fueron creadas haciendo incidir pulsaciones láser en dichas nanopartículas de oro. Estas burbujas de corta duración son muy brillantes y se pueden hacer de distinto tamaño variando la potencia de la pulsación láser aplicada.

En las pruebas realizadas, con células cancerígenas, los investigadores descubrieron que podían afinar el láser para crear burbujas pequeñas y brillantes que eran visibles pero no dañinas, y también burbujas grandes capaces de romper las células.

Dado que son visibles bajo el microscopio, las nanoburbujas pueden usarse tanto para diagnosticar células enfermas como para rastrear las explosiones que pueden destruir dichas células. La técnica puede servir asimismo para realizar evaluaciones post-terapéuticas sobre el estado celular.

Según explicaron los científicos en un artículo aparecido en la revista especializada Nanotechnology, este método permitiría, de esta forma, combinar el diagnóstico y el proceso terapéutico y, al mejorar las posibilidades selectivas a nivel celular, ofrecería beneficios significativos para la investigación y la curación.

Hafner afirmó que las propiedades mecánicas y ópticas de las burbujas ofrecen ventajas únicas para aplicaciones biomédicas a nivel de las células individuales, e incluso, para trabajar dentro de las células.

Avance esperado

Según Dmitri Lapotko poder tratar las células de forma individual es uno de los avances más esperados de la nanomedicina. Lo que se ha conseguido con este nuevo paso ha sido provocar efectos localizados dentro de células concretas.

La idea, señala el científico, sería seleccionar y tratar las células enfermas pronto, antes de que la enfermedad progrese hasta el punto de dañar verdaderamente la salud del paciente.

Ya en estudios de laboratorio realizados el año pasado, Lapotko y sus colaboradores del Laboratory for Laser Cytotechnologies del A.V. Lykov Heat and Mass Transfer Institute en Minsk, Belorrusia, aplicaron nanoburbujas a una placa arterial.

Así, constataron que el sistema servía para hacer explotar los sedimentos que bloquean a las arterias. Según Lapotko, las nanoburbujas pueden hacerse funcionar como si fueran auténticos martillos perforadores.

En la investigación actual realizada con Hafner, un profesor de física, astronomía y química de la Universidad de Rice, los científicos han probado el mismo sistema con células leucémicas y células procedentes de cáncer de cabeza y cuello.

A las nanopartículas empleadas les fueron incorporados anticuerpos, para que éstas apuntaran sólo a las células cancerígenas. Los investigadores constataron que la técnica resulta efectiva para la localización y liquidación de las células cancerígenas.

Salud nanotecnológica

En el terreno de la salud, la nanotecnología está resultando ser una ciencia cada vez más prometedora.

En los últimos tiempos, han ido apareciendo interesantes avances que nos acercan a la posibilidad de tratamientos muy específicos, realizados a nivel celular con “aparatos” de tamaño nanométrico.

Así, en 2007, por ejemplo, científicos del MIT consiguieron desarrollar nanopartículas capaces de llegar hasta los tumores a través del flujo sanguíneo, reunirse en ellos y, una vez allí, sólo con la aplicación de un ligero campo magnético, emitir calor para que dichas nanopartículas soltasen medicamentos que llevaban “pegados” con hebras de ADN.

Con este método, podrían generarse tratamientos muy específicos contra el cáncer, sin tener que dañar en absoluto el resto de las células del organismo.

Por otro lado, en 2005, científicos norteamericanos y japoneses desarrollaron nanotubos de platino 100 veces más delgados que el cabello humano, que podían introducirse en las venas para permitir a los médicos intervenir en el cerebro de una persona.

Estos nanocaptores fueron creados, asimismo, para poder estudiar las interacciones entre neuronas, y para el desarrollo de nuevas terapias contra enfermedades neurológicas y tumores cerebrales.

Artículo original en Tendencias 21

Las grandes ciudades serán irrespirables e inhabitables en 2030

La ONU urge un plan de desarrollo sostenible para los centros urbanos

De aquí al año 2030 las ciudades podrían ser inhabitables por la imposibilidad de respirar en ellas como consecuencia de la contaminación, advierten las Naciones Unidas. Un proyecto presentado en las Jornadas Mundiales del Medioambiente de la ONU, celebradas entre el uno y el cinco de junio en San Francisco, California, propone tomar cartas en el asunto cuanto antes, convirtiendo las ciudades en lugares con más zonas verdes que puedan garantizar la calidad del aire. Además, representantes de todas las ciudades del planeta han firmado un importante acuerdo que podría cambiar la forma de concebir los centros urbanos, cada vez más masificados y contaminados. Por Marta Morales.

Dentro de 25 años, dos tercios de los habitantes del planeta Tierra vivirán en zonas urbanas. Para entonces, y si no se toman las medidas necesarias, el aire de estos lugares será irrespirable. El proyecto “Las ciudades verdes, un plan para el planeta”, presentado por las Naciones Unidas en el marco de las Jornadas Mundiales del Medioambiente, celebradas a principios de junio en California, propone la creación de bosques urbanos y espacios verdes, que mejoren la calidad del aire.

Además hace un llamamiento a los gobiernos en general y a las autoridades locales en particular sobre la necesidad de detener el éxodo rural y de intentar llevar a cabo un crecimiento sostenible de las ciudades.

De aquí a 2030, un 60% de la población mundial vivirá en zonas urbanas, el doble de gente que en 1950, y un 22% más que en 2003, señala el Programa de la ONU para el medioambiente o PNUMA, organizador de dichas jornadas.

Crecimiento demográfico desmesurado

El crecimiento demográfico de los próximos 25 años tendrá lugar mayormente en las ciudades y, sobre todo, en países en vías de desarrollo. En la actualidad, el 70% de los habitantes de los países en vías de desarrollo viven en el campo, mientras que sólo un 30% vive en ciudades. En 2030, esta proporción se invertirá, con la consecuente superpoblación en las zonas urbanas.

El planeta contará ya para 2015 con 23 centros urbanos con una aglomeración de más de diez millones de habitantes, contra las 19 que teníamos en 2000. Un 80% de estas ciudades gigantes se encontrará en los países en vías de desarrollo, tal y como ocurre actualmente. El crecimiento de las ciudades ha sido espectacular desde los años 50, cuando sólo entraba dentro de esta categoría la ciudad de Nueva York, con 12 millones de habitantes entonces.

Según el PNUMA, en el norte del planeta la urbanización desmesurada va a menudo de la mano del crecimiento económico y del aumento del nivel de vida. Pero en el sur se produce todo lo contrario, sobre todo en África, donde un 70% de la población urbana vive en suburbios desprovistos de redes de agua, centros sanitarios, de recogedores de basura y de transportes públicos. Con el aumento de los precios de los terrenos, además, las infraestructuras necesarias no pueden desarrollarse, y los problemas medioambientales se vuelven insuperables.

Ciudades más verdes

El desafío radica por tanto en crear ciudades respetuosas con el medio ambiente. Edificios que obtienen su energía de placas solares, que ahorran energía gracias a bombillas de bajo consumo o transportes públicos y vehículos cuyo combustibe sea el hidrógeno, son algunas de las propuestas.

Con la intención de posibilitar una mejora de la calidad de vida en los centros urbanos, las jornadas se clausuraron con una firma histórica. Líderes de ciudades de todo el planeta apoyaron, en el día mundial del medioambiente establecido por la ONU, un acuerdo histórico: el Urban Environmental Accords (el Acuerdo del Medioambiente Urbano) que, según los firmantes, supone un nuevo comienzo en la forma de entender el desarrollo humano sobre la Tierra, un comienzo más sostenible y respetuoso con el medioambiente y que atañe especialmente a las ciudades.

Las Jornadas Mundiales del Medioambiente se celebran desde 1987. Este año, se han desarrollado en San Francisco. Dentro de las Jornadas, también se organizó a este respecto una exposición llamada Green Cities (Ciudades Verdes) que propuso diversos temas cada día: comida, aire, reciclaje, crecimiento sostenible, transporte, ahorro energético y energías renovables, biodiversidad y espacios verdes fueron algunas de sus propuestas de trabajo.

Artículo original en Tendencias 21

El servidor web Apache cumple 15 años

por : Javier Pastor: 24 Feb 2010, 11:29

Este desarrollo Open Source es uno de los más reputados en el segmento, y de hecho Apache y sus versiones para Windows, Linux y otras plataformas están disponibles en la mayor parte de los sitios web que visitamos a diario.

Todo comenzó un 23 de febrero de 1995, fecha en la que apareció la primera versión de un servidor web que se originó como un fork del servidor httpd de la NCSA y que pronto comenzaría a ser muy popular entre la comunidad de usuarios.

Hoy en día Apache está siendo utilizado en más del 60% de los servidores web del mundo, y de hecho más de 112 millones de sitios web basan sus operaciones en un desarrollo que es un ejemplo de la filosofía Open Source. ¡Felicidades!

Artículo original en The Inquirer

Los 10 momentos más importantes de la historia del Software Libre

Publicado el 18/02/2010 por Ezequiel

Muchos momentos han sucedido a lo largo de la historia informática que han sido claves para la formación de lo que es hoy el Software Libre. ¿Alguna vez te has preguntado cuáles son? Para aclararnos esta duda, la gente de Royal Pingdom realizó una lista de los 9 acontecimientos mas relevantes de la historia del Software Libre.

En la lista, de la que me entero a través de esDebian, se incluyen los momentos que a la gente de Pingdom le resultaron los mas relevantes. Estos momentos impulsaron al SL a lo que hoy en día conocemos. Sin duda que cualquier otro (me incluyo), agregaría otros acontecimientos, por ello modifique el articulo para culminar en los 10 momentos mas importantes de la historia del Software Libre.

A continuación, la lista en orden cronológico:

1980 – La llegada de Usenet

Quizás se trata de un empiezo polémico, pero el desarrollo del software libre siempre se hizo conducido por la colaboración, y con la llegada de Usenet los desarrolladores pudieron colaborar a través de Internet como nunca antes y así compartir el software libre de forma sencilla.

Usenet (construido sobre la infraestructura de lo que hoy es llamado Internet) fue en muchos aspectos el precursor de los actuales foros de Internet y la World Wide Web (www) por casi una década.

1983 – Richard Stallman comienza con el proyecto GNU

Iniciado por Richard Stallman en 1983, el proyecto GNU es un proyecto de colaboración en masa para el software abierto y libre que ha prosperado hasta el día de hoy. Stallman logro continuar el proyecto GNU con la creación de la Fundación del Software Libre (Free Software Foundation) en 1985. Hoy en día la FSF es el soporte de la comunidad del software libre.

El proyecto GNU resultó en una inmensa cantidad de Software libre a través del tiempo y dio lugar al nacimiento de la Licencia Pública General (GPL, General Public License), siendo la licencia más popular en el Software Libre. Y cuando el Kernel de Linux llegó, el Software GNU lo convirtió en un sistema operativo completo.

1989 – Se empieza a trabajar en 386BSD

Aunque Unix BSD ha sido Software libre por muchos años y ha tenido una de las primeras licencias de software libre (la licencia BSD), por desgracia también necesita una licencia independiente de AT&T para poder utilizarlo, puesto que incluía código de AT&T Unix.

El problema fue finalmente resuelto por William y Lynne Jolitz en 1992, cuando ellos liberaron 386BSD (también llamado Jolix). En desarrollo desde 1989, fue la primera versión en ser completamente libre y software abierto, independientemente de la licencia AT&T.

1991 – Linus Torvalds crea Linux

La decisión de Linus Torvalds de desarrollar su propia versión del kernel Minix resultó en el hoy famoso mundialmente Linux, que inicialmente lo quería llamar “Freax”. El kernel Linux se convirtió en la ultima pieza para el sistema operativo del proyecto GNU, ofreciendo un sistema operativo completamente libre y de código abierto.

Linus envió el siguiente mensaje al group de noticias comp.os.minix en 1991:

“Estoy haciendo un sistema operativo (libre) (solo por hobby, no será tan grande y profesional como GNU) para los clones AT 386(486)”.

1993 – La fundación de Red Hat

Red Hat, una compañía basada alrededor de su propia distribución Linux, hizo al Software libre una gran negocio. La compañía demostró que era altamente rentable al como lo que es, en esencia, gratis.

Para dar una idea de qué tanto ruido hubo alrededor de Red Hat en la década de los ‘90, cuando se hizo publico en 1999, tuvo una de las mas grandes ganancias en la historia de Wall Street.

1993 – Creación del proyecto Debian

Esta distribución, que ha dado vida a tantas otras; como la super-popular Ubuntu. Debian fue fundada en 1993 por Ian Murdok con las intenciones de crear una distribución basada íntegramente en Software Libre, aunque lanzo sus primeras versiones en 1994/95. El proyecto Debian es ajeno a todo interés comercial o empresarial, demostrando de esta forma que puede crearse una distribución robusta mediante la colaboración de los desarrolladores y usuarios.

1994 – Comienza el desarrollo de MySQL

Michael Widenius y David Axmark empezaron a desarrollar MySQL en 1994 y liberaron su primera versión en 1995.

A través de los años, MySQL se ha convertido en la solución por excelencia para bases de datos de código abierto usada por una inmensa cantidad de compañías y sitios web como Facebook y Wikipedia. Al 2009, hay mas de 11 millones de instalaciones de MySQL.

MySQL también, como Red Hat lo hizo, demostró cómo el software libre puede ser un gran negocio. En el 2008, Sun compró la compañía por un billón de dólares.

1996 – Apache toma la web

El servidor http Apache mostró cómo un producto de Software Libre puede dominar el mercado casi por completo. Apache ha sido el software para servidores web mas usado en Internet desde 1996, y no parece que esto vaya a cambiar en mucho tiempo.

1998 – Netscape libera el código fuente de su navegador Web.

En su incesante y desesperada batalla contra Microsoft e Internet Explorer, Netscape finalmente decidió liberar el código fuente de su navegador web en 1998 y empezó el proyecto de Software Libre comunitario Mozilla para mantener la competición.

Aunque Netscape se desvaneció en la oscuridad, sin este histórico movimiento no hubiera habido Mozilla, y sin Mozilla no hubiera habido Firefox. Por lo desconocemos qué tanta influencia ha ganado y tiene este navegador.

2004 – Canonical libera Ubuntu

Cuando la compañía del sudafricano multimillonario Mark Shuttleworth, Canonical, liberó la distro basada en Debian: Ubuntu en 2004, pocos pudieron predecir que masivo éxito sería. Ubuntu rápidamente se volvió la distro Linux más usada al momento, especialmente en el escritorio, que ha llevado a las masas y grupos a Linux como ninguna otra distribución Linux.

Y para vos, cuales son los momentos mas importantes del Software Libre, considerando los cambios que se sucedieron alrededor de este movimiento global?

Artículo original en Punto Geek

Cisco anuncia una tecnología que hará a Internet más rápido

Reuters

Cisco Systems anunciará en marzo nueva tecnología para que los proveedores de servicios de comunicaciones ofrezcan conexiones a Internet más avanzadas y rápidas, dijo una fuente cercana al plan el miércoles.

La maniobra llega en un momento en que la Comisión Federal de Comunicaciones de Estados Unidos (FCC, por sus siglas en inglés) busca más velocidad en Internet como parte de su Plan Nacional de Banda Ancha que se presentará el 17 de marzo.

Cisco dijo el miércoles que sacará a la luz el 9 de marzo tecnología que ''cambiará para siempre Internet''. En su página web, el fabricante de equipamiento de redes dijo que el cambio mostraría ''lo que es posible cuando el sistema de redes recibe una inyección de adrenalina''.

La compañía declinó dar detalles, pero la fuente dijo que la tecnología ayudaría a los proveedores de servicios de telecomunicaciones, como compañías telefónicas, a ofrecer un mejor y más rápido servicio de Internet.

La FCC quiere una velocidad mínima de transmisión de datos en Internet de 100 megabites por segundo (Mbps) hasta 100 millones de hogares en una década, comparado con las estimaciones actuales de la industria de menos de cuatro megas.

Google también ha irrumpido en la industria de proveedores de servicios de Internet con un plan de construir una red de Internet super rápida propia.

Cisco es el primer fabricante mundial de routers y otro equipos de redes que ayudan ayudar a las compañías telefónicas y empresas a gestionar sus redes y hacer posible conexiones de Internet más rápidas y estables.


(Información de Ritsuko Ando. Traducido por Rafa García de Cosío. Redacción de Madrid; + 34 915858341; Madrid.online@thomsonreuters.com)

Artículo original en Yahoo Noticias