jueves, 22 de julio de 2010

Navegadores web, tenéis un problema: todos sois vulnerables al robo de información

Por Elías Notario el 22 de Julio de 2010, 16:30 en Tecnología.

La próxima semana tendrá lugar otra nueva edición de la Conferencia de Seguridad Black Hat en Las Vegas, por la que entre otros se pasará Jeremiah Grossman, el CTO de White Hat Security, quien ya ha anunciado que va a repartir estopa a base de bien a los cuatro principales navegadores web de la actualidad.

Concretamente en su conferencia va a mostrar que tanto Internet Explorer como Firefox, Chrome y Safire tienen serias fallas de seguridad (no en todas sus versiones) que permiten a un atacante hacerse con toda clase de información personal del usuario, desde contraseñas hasta direcciones de correo o la localización. Según se ha podido saber ya los más afectado son Safari 4 y 5 y Internet Explorer 6 y 7, pero como digo Chrome y Firefox tampoco se libran.

¿Y en qué consiste el fallo? Pues bueno, ha encontrado varios, pero el problema principal está en los formularios web y como gestionan la información introducida en los mismos IE 6 y 7 y Safari 4 y 5. De manera resumida un atacante, aprovechando la función autocompletar, podría incluir campos invisibles en un formulario y un pequeño código JavaScript que iría probando caracteres al azar hasta que encontrara aquellos que el propio navegador autocompletara, momento en el que los datos serían enviados a donde el atacante quisiera (sin enterarse de nada el que está visitando la web). En el caso de Chrome y Firefox este experto en seguridad asegura haber encontrado otras dos vulnerabilidades que también permiten robar datos gracias al sistema de autocompletado de ambos navegadores.

Lo peor de todo esto no son las vulnerabilidades en sí mismas, todos los softwares tienen cientos de ellas y solamente es cuestión de encontrarlas, sino la estúpida política que muchas grandes empresas tienen respecto a seguridad: suelen ignorar las advertencias que provienen de geste externa. Justamente esto le pasó a Jeremiah Grossman y por eso va hacer públicos sus hallazgos en la próxima Black Hat, de lo cual me alegro ya que será la única manera de que solucionen las fallas.

Artículo original en alt1040

miércoles, 21 de julio de 2010

Internet 100 veces más rápido

Un nuevo diseño de red evita la conversión de las señales ópticas en eléctricas

Un equipo de investigación del MIT ha creado un nuevo diseño de red que podría hacer que Internet funcionase 100 o incluso 1.000 veces más rápido con un menor coste energético. La clave está en routers que sólo acepten señales ópticas provenientes de una única dirección y las envíen en un solo sentido, sin necesidad de convertirlas en señales eléctricas. La posibilidad de intercambiar grandes cantidades de datos a velocidades de vértigo tendría enormes consecuencias en fenómenos en auge como el vídeo en Internet o la televisión de alta definición, entre otros. Por Elena Higueras.

El corazón de Internet es una red de alta capacidad de fibra óptica que abarca continentes. Pero mientras que las señales ópticas transmiten la información con mucha más eficacia que las señales eléctricas, son más difíciles de controlar. Los routers que dirigen el tráfico en Internet suelen convertir las señales ópticas en eléctricas para procesarlas y, a continuación, vuelven a transformarlas en señales ópticas para poder transmitirlas, un proceso que consume tiempo y energía.

Una de las razones por la que la transmisión óptica de datos es tan eficiente es que distintas longitudes de onda de la luz cargadas con diferentes informaciones pueden viajar sobre la misma fibra. Sin embargo, los problemas surgen cuando las señales ópticas procedentes de distintas direcciones llegan a un router al mismo tiempo. La conversión en señales eléctricas permite que el router guarde esos datos en la memoria hasta que pueda acceder a ellos.

Aunque la espera no es más que una cuestión de milisegundos, un grupo de investigadores del MIT (Instituto Tecnológico de Massachusetts) dirigido por Vincent Chan, profesor de Ingeniería Eléctrica e Informática, lleva años trabajando en un sistema que consiga eliminar este proceso de conversión ineficiente. Ahora, una nueva línea de estudio parece haber dado con la solución al problema. Según un comunicado del MIT, el equipo de Chan ha diseñado una nueva forma de organizar las redes ópticas que podría hacer que Internet fuese 100 o incluso 1.000 veces más rápido al tiempo que reduciría la cantidad de energía consumida.

Bautizado como "conmutación de flujo”, este enfoque funcionaría de la siguiente manera: entre los lugares que intercambian grandes volúmenes de datos, el sistema establecería una ruta de acceso a través de la red. Para ciertas longitudes de onda de la luz, los routers situados a lo largo de ese camino sólo podrían aceptar las señales que vienen de una única dirección y enviarlas en un solo sentido. Como no hay posibilidad de que las señales lleguen desde varias direcciones, nunca habría necesidad de almacenarlas en la memoria.

Ancho de banda variable

Hasta cierto punto, algo como esto ya sucede en la red actual. Una gran empresa de Internet como Facebook o Google, por ejemplo, mantiene grandes servidores web en algunos puntos diferentes de Estados Unidos. La cantidad de datos que intercambian estos servidores es tal que la empresa simplemente necesitaría alquilar una determinada longitud de onda a uno de los grupos de telecomunicaciones que mantiene las redes de fibra óptica del país. Así, ningún otro tráfico de Internet podría utilizar esa longitud de onda.

Sin embargo, en este caso, la asignación de ancho de banda entre los dos extremos es fija. Si por algún motivo los servidores de la empresa no intercambiasen tanta cantidad de datos, el ancho de banda se estaría desperdiciando. Y viceversa, si los servidores movieran una gran cantidad de datos, podrían superar la capacidad del enlace.

En el diseño del MIT, la asignación de ancho de banda cambiaría constantemente. Si el tráfico entre dos puntos aumentase, se contratarían nuevas longitudes de onda para manejarlo y, cuando disminuyese, se abandonarían. Para operar con estos movimientos Chan y sus colegas han desarrollado protocolos de gestión de red capaces de realizar estas reasignaciones en cuestión de segundos.

El equipo de Chan ha pasado del papel a la acción montando una pequeña red óptica experimental que recorre la costa este de EEUU. En ella han observado que su diseño puede aumentar la velocidad de transmisión de datos de las redes ópticas en un rango de 100 a 1.000 veces. Pero además, han demostrado que incluso con un aumento de 100 veces en las tasas de datos, su sistema podría reducir el consumo de energía de la red. Las conclusiones del estudio serán presentadas en la Conferencia de la optoelectrónica y Comunicaciones (0EC 2010), que se celebrará en Japón del 5 al 9 de julio.

Vídeo web y televisión de alta definición

Algunos industriales, sin embargo, ven en los costes económicos ligados a este proyecto un escollo demasiado difícil de superar. Gerstel Ori, ingeniero de Cisco Systems, el mayor fabricante de equipos de enrutamiento de la red, por ejemplo, considera que aunque la técnica de conmutación de flujo es más práctica que otras ya existentes como la conmutación de explosión o la conmutación de paquetes ópticos, el principal obstáculo para su adopción es el gran desembolso económico que conlleva.

Y es que implementar el sistema de Chan significaría reemplazar los routers de la red actual con los nuevos que no tienen que convertir las señales ópticas en señales eléctricas. En su opinión, no está tan claro que exista la demanda suficiente de una red más rápida para justificar ese gasto: "La conmutación de flujo funciona bastante bien para una demanda muy grande -si hay usuarios que necesitan mucho ancho de banda y quieren poco retardo-, pero la mayoría de los clientes no están en ese segmento hoy en día".

A esto el padre del invento replica que la explosión de la popularidad del vídeo en Internet y la televisión de alta definición en los últimos años podría hacer viable su proyecto. “Si estas dos tendencias convergen, la conmutación de flujo puede tener sentido financiero. La alta resolución a 120 fotogramas por segundo significa un montón de datos", sentencia Chan.

Elena Higueras
Martes 29 Junio 2010

Artículo original en Tendencias 21

Hacker revelará herramienta que vulnera enrutadores


Linksys, los más afectados

[ 21/07/2010 - 12:21 CET ]

El hacker Craig Heffner de Seismic asegura haber encontrado un grave agujero de seguridad que en teoría afecta a millones de usuarios de Internet, y que podría dar a intrusos acceso a la herramienta de administración de enrutadores.

Diario Ti: La vulnerabilidad puede ser explotada mediante un procedimiento conocido como DNS Rebinding . Según la publicación Blackhat, el hacker habría probado la vulnerabilidad en 30 modelos distintos de enrutadores, con una herramienta desarrollada por él mismo. Más de la mitad de los enrutadores probados serían receptivos, incluyendo uno de los más populares, el modelo Linksys WRT54G.

La intrusión funcionó con enrutadores provistos de distinto firmware, incluyendo programas de terceros como DD-WRT (que puede ser usado con el modelo WRT54G y OpenWRT. Ambos sistemas están basados en Linux.

Sugieren cambiar la contraseña

La vulnerabilidad será revelada por el hacer durante la conferencia anual de hackers BlackHat 2010, a iniciarse la próxima semana. A partir de entonces, la información sobre la vulnerabilidad y la herramienta usada para realizar el hack serán distribuidas entre todos los hackers interesados. Por lo tanto, es de gran importancia que las empresas afectadas logren solucionar a tiempo el problema.

En principio, se sugiere a los usuarios que aún no lo hayan hecho, cambiar la contraseña estándar del enrutador.

Artículo original en Diario TI

martes, 13 de julio de 2010

5 servidores DNS públicos y gratuitos

Por Sebastian Bortnik el 29 de Junio de 2010, 19:02 en Internet.

El servicio de DNS es el que le permite a la computadora traducir los nombres de dominio a direcciones IP, ese valor de cuatro números que sirve para identificar a una computadora en una red, y por lo tanto también en Internet. Generalmente, es el proveedor de Internet quien provee los servidores DNS, como así también en las redes suelen contar con servidores propios. Pero muchas veces debido a la calidad del servicio brindado uno se cansa de estos servidores: interrupciones en el servicio, filtrado de contenidos, lentitud; son algunos de los motivos por el que uno puede querer cambiarlo y, ¿que mejor para ello que utilizar algún servicio público y gratuito? Acá van los 5 servidores DNS que recomiendo tener a mano para utilizar de forma cotidiana o ante una eventualidad o emergencia:




1. OpenDNS: es el servicio más popular, que ya ha alcanzado al 1% de los usuarios de Internet y es la primer referencia obligada en este campo. Servidores: 208.67.222.222 y 208.67.220.220.

2. Google Public DNS: es la entrada de Google al campo de los DNS realizada a fines del año 2009, con el foco puesto en la velocidad de respuesta. Servidores: 8.8.8.8 y 8.8.4.4.

3. ScrubIT: el servicio se caracteriza por filtrar sitios con contenido pornográfico, phishing u otros contenidos maliciosos. Recomendado para entornos corporativos o familias que quieran filtrar dichos contenidos. Servidores: 67.138.54.100 y 207.225.209.66.

4. DNS Advantage: otro servicio del mismo tipo que he probado y también funciona correctamente. Servidores: 156.154.70.1 y 156.154.71.1.

5. Norton DNS: el servicio es provisto por la popular empresa de seguridad Symantec, aunque vale destacar que aún se encuentra en estado beta. También ofrece filtrado de sitios maliciosos. Servidores: 198.153.192.1 y 198.153.194.1.

Aunque al principio los DNS públicos no eran tan utilizados, se puede decir que hoy en día tienen todos un muy buen rendimiento y para muchos (me incluyo) son una alternativa de uso diario con excelente satisfacción por el servicio brindado.

Artículo original en bitelia.com