jueves, 30 de junio de 2011

TLD4, la botnet indestructible

Por Alan Lazalde | 30 de junio de 2011, 22:18

4.5 millones de PC conforman TLD4, la botnet más sofisticada de la que se tenga memoria, tal es así que investigadores de Kaspersky Labs la han calificado como indestructible.

No se trata únicamente de sus dimensiones, que de por sí representan una amenaza mayúscula, sumemos (¿multipliquemos?) a la complejidad de esta inmensa máquina de malware las siguientes características:

  1. Usa un mecanismo de cifrado hecho de forma expresa para sus propios propósitos. Este permite la comunicación cifrada vía Internet entre un centro de control y las botnets, al tiempo que evita su indentificación mediante análisis de red e impide que otros tomen el control.
  2. Accede a redes P2P. En particular, a la red KAD a través de la cuál transmite órdenes a todas las máquinas de la botnet.
  3. Infecta máquinas Windows a través de sitios web que explotan vulnerabilidades del sistema. Vive allí oculto, irremovible con técnicas normales.
  4. Se encuentra en sitios que alojan porno, contenidos de descarga directa y torrents.
  5. Se instala a sí mismo en una área especial del disco duro llamada MBR (Master Boot Record).
  6. Es capaz de modificar resultados de búsqueda, publicidad en internet y DNS.
  7. Los centros de control de la botnet cambian constantemente.
  8. Pfff, no acabaría de listar las capacidades de TLD4. Les remito al artículo original de Kaspersky Labs, les aseguro que se quedarán con la boca abierta con las sofisticación de esta botnet.

Kasperky Labs dice que 28% de las víctimas (o participantes de la botnet) radican en los EE. UU., 7% en India, y 5% en Reino Unido. Ellos le han dado un seguimiento profundo al temas desde su aparición en 2008. El nombre TLD4 indica que es la cuarta generación de TLD. Por decir algo, en el estudio que realizaron en diciembre de 2010 sobre TLD4, mencionan:

No hay duda de que TLD4 está “armado hasta los dientes” y representa una amenaza muy seria para los usuarios. Aún peor, continúa en evolución. Las empresas fabricantes de antivirus deben actualizar urgentemente sus componentes anti rootkit, porque una vez infectada la máquina poco se podrá hacer al respecto.


Los virus evolucionan, los informáticos también. La organicidad que muestras en impresionante, es como si la Internet fuese un ente viviente y que TLD4 una red de agentes tomando el control en silencio. Es convertir, poco a poca, toda la Internet en un zombie. Pero vamos, quizá estoy exagerando.

Imagen: Alex Dragulescu

Artículo original en Alt1040

Artículo relacionado en BBC Mundo

miércoles, 29 de junio de 2011

Richard Stallman: “El usuario debe controlar el software, no al revés”

28/06/11 12:09

Uno de los periodicos mas importantes y con mas renombre en Europa (LEMONDE) estuvo conversando con Richard Stallman que comentó su visión sobre los smartphones, los contenidos digitales o Spotify. Como todos sabemos el SR. Stallman es muy controversial aqui un fragmento de la interesante entrevista realizada:

Entrevistador: comenzó comentándole a Stallman la abrumadora proporción de servidores que utilizaban alguna distribución Linux o que usaban soluciones en software libre, por tanto, quizás podría considerarse como una gran victoria para el movimiento de impulso al software libre que él tanto ha defendido.

Richard Stallman: No son victorias permanentes. Lo más importante para garantizar la libertad de los usuarios es el ordenador personal y el teléfono móvil. No tengo móvil, son objetos de seguimiento, no quiero que el Gran Hermano sepa dónde estoy. El software de estos pequeños computadores debería ser libre y con un modelo que huya del software privativo. Incluso los teléfonos Android utilizan un sistema privativo para la gestión del transmisor radio. Y claro, este sistema puede controlar el micrófono del teléfono y puede acabar siendo un sistema para monitorizar al usuario.

Entrevistador: La lucha de Stallman ha traspasado la frontera del software libre, es decir, que además defender la libertad del software se ha convertido en todo un abanderado de la privacidad, pasando de un discurso que demonizaba a Microsoft a atacar a compañías proveedoras de servicios como Google o Facebook.

Richard Stallman: Este es otro problema. Un servicio no es una aplicación y, claro está, no se pueden aplicar los conceptos del software libre. Para determinar si un servicio pone en riesgo la privacidad de los datos habría que plantearse dos preguntas: ¿el servicio puede beneficiarse de tener mis datos? ¿puede tomar el control de mi ordenador. Los usuarios se centran, con mucha frecuencia, en lo primero pero obvian lo segundo. Debemos rechazar el concepto del “software como servicio” que tanto se ha puesto de moda. El software puede ser libre pero eso no significa que sea bueno para el usuario porque puede perder el control de sus datos.

Entrevistador: Al criticar el software como servicio, Damien Leloup le preguntó, directamente, por Spotify, un claro ejemplo de software como servicio en el que el usuario, tras pagar, accede a un servicio de streaming de música.

Richard Stallman: Spotify es una “esposa” digital, está basado en un software privativo y el usuario no puede controlar nada. […] Además, no quiero pagarle a los editores y discográficas, creo que esas empresas han adquirido los derechos de las canciones a través de leyes y acuerdos draconianos y todo este sistema debería ser destruido. Los músicos deberían percibir una retribución justa y no basada en indemnizaciones y cánonesm lo cual está bastante mal porque parece que hemos contraído una deuda por el mero hecho de escuchar música.

Entrevistador: Sobre la pasada cumbre del G-8, Stallman arremetió contra las conclusiones de la cumbre que, básicamente, se centraron en proteger mejor los derechos de autor:

Richard Stallman: Los beneficiarios de estos derechos son las empresas y el poder que están adquiriendo es intolerable, habría que pararlo. Es una excusa para mantener un sistema injusto y obsoleto. En vez de protegerlos habría que sancionarles por los ataques contra nuestras libertades. El sistema de derechos de autor fue concebido para promover las artes impresas pero, a día de hoy, ha dejado de tener validez.

Entrevistador:Finalmente, sobre la actualidad de la UE y su búsqueda de una patente extensible a todo el territorio de la Unión Europea, Richard Stallman no está lo que se dice muy de acuerdo con la idea:

Richard Stallman: Si la Unión Europea saca adelante su proyecto de patente única, la Oficina Europea de Patentes tendrá un poder ilimitado, desplazando al Tribunal de Apelación. Esta medida abre la puerta a las patentes de software, eso es lo que va a conseguir la Comisión Europea.

Fuente:
Bitelia

Artículo original en Linux para todos

viernes, 24 de junio de 2011

Cómo saber si los "hackers" le atacaron o robaron sus datos

Max Seitz

BBC Mundo Viernes, 24 de junio de 2011

Más allá de lo que uno pueda opinar sobre grupos de hacktivistas como "Anonymous" and "LulzSec", no cabe duda de que son eficientes en lo que hacen: robar información de bases de datos, inhabilitar temporalmente sitios de internet o irrumpir en computadoras personales.

En las últimas semanas, integrantes de estas agrupaciones que vinculan sus ataques con cierta forma de activismo se han adjudicado o han sido acusados de varias ofensivas informáticas en las que se vieron comprometidos datos personales de los usuarios.

En el incidente más reciente, "LulzSec" comunicó que robó información de una agencia policial de Arizona, en Estados Unidos, como modo de rechazar la política antiinmigración de ese estado de EE.UU.

El grupo dijo que con este ataque, que denominó "Chinga la migra", liberó cientos de boletines de inteligencia privados, manuales de entrenamiento, correos electrónicos personales, nombres, números telefónicos, direcciones y contraseñas de los agentes de seguridad.

"Estamos en contra de la ley SB1070 y de los perfiles raciales antiinmigrantes del estado policíaco de Arizona".

"LulzSec" también se adjudicó el robo de más de un millón nombres de usuarios, contraseñas y domicilios del sitio de películas de Sony.

En algunos casos, dicen los expertos en seguridad informática, los hacktivistas colocan su "botín" en sitios de internet para que todos lo puedan ver.

Saber o no saber

¿Pero cómo saber si uno ha sido víctima de un ataque y, específicamente, del robo de datos personales?

"En general es difícil determinar si tienen nuestra información, porque juegan a las escondidas en internet; suelen actuar de forma subrepticia, recorriendo los vericuetos de la red, para desarrollar sus actividades sin ser detectados, salvo algunos hacktivistas a los que les gusta difundir sus travesuras", le dice a BBC Mundo Robert Rachwald, director de estrategia de la empresa estadounidense de seguridad informática Imperva.

No obstante, Rachwald afirma que, a pesar de estas dificultades, el usuario común puede detectar algunos síntomas: que la computadora y la conexión de internet se vuelven inusualmente lentas o corren programas extraños porque los hackers usan sus recursos, o que "tus amigos reciben e-mails tuyos promocionando cosas como el Viagra".

Al parecer, en el caso del correo electrónico resulta más sencillo detectar si uno ha sido blanco de un ciberataque.

"Hay un método muy fácil para saber si la contraseña de tu e-mail se ha visto comprometida y están intentado acceder a tu cuenta", le explica a BBC Mundo Javier de la Chica, gerente de seguridad informática de la empresa Altran e investigador de la Universidad Politécnica de Madrid, en España.

"Lo más sencillo es entrar, por ejemplo, al Gmail, cambiar la clave y cerrar la sesión. Si hay alguna persona conectada con tu nombre de usuario, se va a desconectar automáticamente. O bien te va a salir un mensaje de aviso de que hay otra sesión abierta".

"Este principio se puede aplicar a otras cuentas de e-mail y a las redes sociales".

¿Pero qué pasa si uno mismo tiene varias sesiones abiertas de una misma cuenta de correo electrónico, por ejemplo en la computadora y en el teléfono inteligente? ¿Puede ello generar una falsa alarma? ¿Y cómo evitar que esto suceda?

"Hay que configurar los navegadores de forma tal que, al salir, se cierren todas las sesiones, se haga una limpieza de los cookies y del caché. Es la forma más segura que existe. Si uno hace esto, el mensaje de que otra persona está usando nuestra cuenta de e-mail es confiable".

Finalmente, los especialistas apuntan otro síntoma al que debe prestarse atención: si uno recibe correos fraudulentos de supuestos bancos o empresas que lo invitan a enviar datos personales, es porque algo anda mal.

Herramientas

Ante la profusión de ciberataques, han surgido una serie de programas pagos y gratuitos para proteger aún más la privacidad, además de los clásicos paquetes de software de antivirus y seguridad en internet.

Asimismo, han aparecido algunas herramientas online -con limitaciones- para enterarse si uno ha sido víctima de los hackers.

El diario estadounidense The New York Times recomienda una de fácil uso, creada por un especialista en seguridad informática, que se llama apropiadamente clic "Should I Change My Password?" ("¿Debo cambiar mi contraseña?").

Lo que hace es verificar si la contraseña del e-mail personal se ha visto comprometida y necesita ser reemplazada con urgencia. Para comprobarlo, usa bases de datos difundidas por los propios hackers luego de sus ataques.

Varios miembros de la redacción de BBC Mundo probaron suerte con sus direcciones de correo electrónico y afortunadamente en todos los casos la respuesta fue la siguiente:

Al parecer tu clave esta segura. No obstante, es recomendable cambiar la contraseña de forma regular y asegurarse de no usar la misma en diferentes sitios de internet.

Con todo, Robert Rachwald, de Impega, le advierte a BBC Mundo que herramientas como éstas tienen un alcance limitado, porque "no siempre los hackers difunden sus botines".

Ojo con la contraseña

Usar distintas claves en diversos sitios de internet es la recomendación básica que suelen hacer los expertos en informática.

Sin embargo, la mayoría de los internautas están en deuda en esta materia. Por ejemplo, un informe reciente de la compañía de seguridad en internet BitDefender concluyó que más del 75% de los usuarios usan la mismas contraseñas para el e-mail y las redes sociales, lo que los coloca en serio riesgo de ser víctimas de los hackers.

La clave está en las claves.

Pero teniendo en cuenta que una misma persona puede tener gran cantidad de claves para acceder a varias cuentas de correo, redes sociales y sitios de bancos y de compras, la idea de crear una contraseña para cada página web puede parecer imposible y hasta desalentadora.

Quizás sirvan los consejos que tanto De la Chica y Rachwald le dieron a BBC Mundo:

  • Las claves deben ser largas y robustas, es decir, incluir letras mayúsculas y minúsculas, números, algún caracter y no tener significado alguno. Para poder recordarla, una contraseña puede ser extraída de una frase larga como "Hoy, 24-06-2011, es un día muy bello en el Reino Unido".
  • Crear un grupo de cuatro o cinco claves.
  • Usar una de esas contraseñas para todos los sitios que requieran menos seguridad, otra para las redes sociales, otra para las cuentas de e-mail, otra para las web que contengan información sensible como los datos de la tarjeta de crédito, y la más segura de todas para la banca online.
  • Cambiar las claves regularmente.

"Sólo así es posible "dormir tranquilo", según De la Chica y Rachwald... Al menos hasta que otro ataque de los hackers obliguen a replantear la estrategia.

Artículo original en BBC Mundo

Guía para controlar un ataque de Denegación de Servicio

viernes 24 de junio de 2011 09:07:00

Los ataques de denegación de servicio (DoS) son uno de los ataques informáticos que hemos observado hace ya muchos años, y que aún siguen vigentes. En forma sencilla, consisten en un ataque hacia algún servicio informático (generalmente alojado en uno o varios servidores), con el ánimo de que este deje de funcionar. El ataque consiste en enviar determinados paquetes al objetivo, de forma tal de saturar los recursos que este puede procesar, y que así el servidor se vea en la necesidad de suspender la provisión del servicio. Como ataque derivado, aparecen los ataques de denegación de servicio distribuido (DDoS), donde el mismo es lanzado, no desde un sistema informático, sino desde múltiples nodos que realizan el ataque de forma simultánea.

Las redes botnets suelen ser utilizadas con estos fines, pudiendo lograr que todos los equipos zombis realicen el ataque contra el objetivo de forma simultánea, logrando mayor efectividad en el ataque. Asimismo, estos ataques están cada vez más asociados al hacktivismo, del cual ya hablamos en este mismo espacio. Un ejemplo de esto son los ataques contra la SGAE, o aquellos derivados contra PayPal, Visa y Mastercad a raíz del incidente de Wikileaks.

Es decir que, a pesar de su antigüedad, los ataques de denegación de servicio siguen vigentes, y es uno de los riesgos que las organizaciones deben considerar al momento de diseñar una estrategia de seguridad de la información. ¿Cómo controlar un ataque de denegación de servicio? Sobre este tema, hace unos días me encontré con esta interesante guía desarrollada por el CERT, titulada DDoS incident response (respuesta ante un incidente de DDoS), el cual recomiendo leer y tomar en cuenta para que la red de su empresa u organización esté preparada para enfrentar, si ocurriera, este tipo de ataque.

La guía considera seis pasos en el proceso de responder a un ataque de denegación de servicio. El primero de ellos, es la preparación. Aunque muchos habrán imaginado que la guía comenzaría cuando se detecta el incidente (segundo paso), la realidad es que para una correcta gestión de la seguridad, es necesario estar preparados, y es en esta etapa donde se recomienda, entre otras cosas, contar con un adecuado mapa de la red y conocimiento de la infraestructura, definir las personas a contactar ante la identificación del ataque y crear los procedimientos adecuados. Aunque sea redundante, estar preparados; y me animo a decir que este es el paso más importante.

Posteriormente, como ya se dijo, viene el paso de la identificación: detectar el ataque, determinar el alcance del mismo y, no menos importante, involucrar a las partes involucradas. Y este es, a mi criterio, un aspecto fundamental: ¿cuánto tarda el gerente de una empresa en enterarse de este incidente? Aunque muchas veces las comunicaciones suelen realizarse luego de haber controlado la situación, es recomendable involucrar a las personas correctas en esta etapa, donde luego será necesario hacer un análisis de la situación, y del ataque en particular.

Posteriormente, viene la etapa de contención. Esta, consiste en trabajar sobre los dispositivos de red, para lograr que el tráfico malicioso no afecte el funcionamiento del servicio, ya sea bloqueando o redirigiendo los paquetes del ataque, o bien buscando nuevos canales de comunicación entre el servicio y sus usuarios.

La cuarta etapa, consiste en la remediación: aún controlada la situación, es necesario detener el ataque de denegación de servicio. Cuánto más rápido se llegue a esta etapa, menor será el impacto (especialmente económico) del ataque. En esta etapa, es probable que se deba involucrar el proveedor de ISP, por lo que es recomendable saber cuál es el procedimiento para ello (primera etapa). El documento del CERT también aconseja, en caso de tener suficiente información, considerar involucrar a las fuerzas de seguridad en función de lo que determinen los departamentos legales de la empresa.

El ante último paso, la recuperación, consiste en volver el servicio al estado original. Si se realizaron direcciones de tráfico o cambios en las configuraciones durante el ataque, una vez que este ha terminado es necesario volver todo al estado original. Es importante estar seguro al momento de estar estos pasos, ya que si no se hicieron las etapas anteriores cuidadosamente, es probable que vuelvan a aparecer falencias en el servicio.

Finalmente, el sexto y último paso consiste en el post-ataque, etapa donde se debe analizar lo ocurrido y, entre otras acciones, se debe:

  • Documentar los detalles del incidente.
  • Discutir lecciones aprendidas y verificar si se pudiera haber evitado o controlado mejor el incidente.
  • Volver a la etapa uno y prepararse mejor en caso de una nueva ocurrencia del ataque.

Es una realidad: la mayoría de los lectores que tengan alguna responsabilidad sobre la seguridad de una red, no estarán trabajando en una organización que reciba cotidianamente ataques de denegación de servicio. Más bien, podríamos decir que suelen ser excepcionales, y aquí radica un aspecto fundamental: ¿estamos preparados para enfrentar ataques no frecuentes? Independientemente de cuándo ocurran, es en ese momento donde las empresas suelen arrepentirse de no estar listas para enfrentar la situación, por lo que, si está a su alcance, les recomiendo descargar la guía y dedicarle unas horas a la etapa número uno: prepararse. Como también indica el propio documento, recuerden, si se encuentran ante este ataque contra su organización, “siga los pasos de la guía, tome nota y no entre en pánico”.

Fuente: ESET Latinoamérica

Artículo original en Segu Info

g-speak: Minority Report traspasa la ficción

Por José Carlos Castillo | 24 de junio de 2011, 14:32

Llevamos una semana la mar de interesante. Varios avances referidos por estos lares parecen dar a entender que ciencia y ficción se encuentran enemistadas. Lo que otrora nos fascinase en pantalla grande, hoy abre bocas en la vida real. Desde la posibilidad de implantar conocimientos directamente al cerebro hasta la captación de fotografías multifocales a un sólo disparo.



Por seguir con metáforas cinematográficas, si el experimento con microchips y ratones nos recordaba a Matrix, la tecnología que hoy es portada en todos los medios alude claramente a Minority Report. Puede que los propietarios de Kinect hayan fantaseado con ser Tom Cruise en más de una ocasión, pero nada comparado a g-speak, que calca la tecnología de forma literal.

De hecho, el máximo responsable tras esta revolución es John Underkoffler (Oblong Industries) quien aconsejase al propio Spielberg en su cinta. Sí, la tecnología es suya y pretende ofrecerla para uso no comercial este mismo otoño.

g-speak no es sino un SOE (Spatial Operating Environment) pensado para salas de conferencias o reuniones, consta de tres grandes pantallas frontales, dos verticales a la izquierda del usuario y una pizarra a su derecha. El conjunto se completa con dos cámaras dispuestas a diferente altura.

La idea es que podamos manejar un entorno completo de trabajo únicamente con nuestros gestos, garantizándose la fidelidad y precisión del reconocimiento. Todos en la sala pueden interactuar con los displays, de hecho, cualquier dispositivo que porten encima (smartphones, portátiles, tablets) es reconocido por la red de inmediato, adhiriéndose al sistema.

La mejor forma de describirlo, dicen quienes lo han probado, es como “una sinfonía de información que todo el mundo puede dirigir”. Podemos alterar la disposición de elementos en pantalla (trasvasándolos a cualquiera de ellas) añadir nueva información, modificarla, hacer zoom… todo ésto no con nuestras manos (será posible en no poco tiempo) sino por mediación de un puntero al más puro estilo WiiMote.

Oblong insiste en que quieren cambiar “la forma en que la gente trabaja unida” y que pretenden hacerlo a un precio lo suficientemente competitivo.

Lo bueno de esta solución es que nace abierta a las ideas de cualquier desarrollador, de tal forma que puedan programarse todo tipo de aplicaciones mediante el pertinente SDK.

Por si fuera poco (agarráos a vuestros asientos) la compañía no descarta llevar esta tecnología a nuestros hogares. ¿Cómo si ya encontramos dificultades para jugar a Kinect? Sólo ellos lo saben, pero prometen reducir la apuesta para que, por ejemplo, podamos interactuar a un tiempo y gestualmente con nuestro portátil, LCD y iPad.

g-speak puede revolucionar los entornos informáticos personales y profesionales, pero probablemente no os hagáis una idea de sus posibilidades reales hasta que no echéis un vistazo a los vídeos que embebemos. El que abre este post muestra la tecnología tal cual es hoy, el que tenéis bajo estas líneas, lo que se espera llegue a ser dentro de poco.


g-speak overview 1828121108 from john underkoffler on Vimeo.



Artículo original en Alt1040

martes, 21 de junio de 2011

Linux sigue arrasando en la supercomputación mundial

20 de junio de 2011

Los sistemas operativos Linux siguen monopolizando la cuota de mercado de supercomputadores mundiales, gobernando 455 sistemas del nuevo Top-500 publicado hoy coincidiendo con un evento de supercomputación que se celebra en Hamburgo.

Si los sistemas operativos Windows monopolizan el mundo del ordenador personal con una cuota de mercado cifrada en los entornos del 89 por ciento, Linux arrasa aún más en la supercomputación mundial, siendo elegido por 455 sistemas del Top-500 lo que supone un 91 por ciento.

Curiosamente, en superordenadores, Windows tiene la misma cuota de mercado que Linux en PCs, algo más del 1 por ciento al estar instalado en 6 equipos. En cuanto a Unix (con AIX al frente) es la elección en 23 de estos supercomputadoras para un 5 por ciento de cuota. BSD está en uno de ellos y 15 equipos (un 3% del total) usan una mezcla de sistemas.

Datos de la nueva lista de junio del Top-500 que ha encumbrado al sistema japonés Fujitsu K al primer puesto mundial en potencia de procesamiento, gracias a un rack de 672 computadoras que instala 68.544 CPUs SPARC64 VIIIfx de ocho núcleos. Su rendimiento medido en el benchmark LINPACK es estratosférico superando los 8 petaflops por segundo y alcanzará la marca de los 10 petaflops/s en 2012 cuando está completado.

Artículo original en muy computer

China produce y aloja una tercera parte del malware mundial

Publicado el 21 de junio de 2011 por Helga Yagüe

China y Rusia producen entre las dos más de la mitad de todo el malware que se distribuye a nivel mundial, España se sitúa en el sexto lugar en la lista de países productores de amenazas informáticas.

El gigante asiático produce y aloja nada menos que el 31% de todo el malware que se mueve a nivel mundial, situándose como “líder” en esta clasificación. Le sigue y no demasiado lejos Rusia, que produce y aloja el 22% del malware.

El tercer país que encabeza el ranking es Brasil, aunque bastante alejado de los dos primeros con el 8% de la producción mundial. España ocupa el sexto lugar con un porcentaje del 4,11% de las amenazas.

En cuanto a la lista de países afectados, Francia y Estados Unidos se llevan la palma ya que han sufrido más de un 25% de las infecciones por malware a nivel mundial.

España ocupa el octavo puesto de los países con más infecciones con un porcentaje del 3,35%.

El informe alerta del incremento durante la primera mitad del año de las amenazas derivadas de spam que se distribuye a través de juegos online. También destacan a eBay PayPal, y World of Warcraft como los servicios más suplantados por los ciberdelincuentes a la hora de lanzar ataques de phishing.

En cuanto a las previsiones, los responsables del estudio creen que en la segunda mitad del año habrá un aumento del 400% en la distribución de malware para móviles y que también crecerán en un 30% las muestras únicas de malware para PC.

Artículo original en The Inquirer

Mejores practicas para implementar sitios web o portales corporativos seguros

20/06/11 16:22

En eidast.me – tecnología en web 2.0, blog personal de nuestro amigo y colaborador Alexander Moreno desemos compartir con la comunidad de Linux Para Todos este muy interesante articulo.

1. Al pensar en una implementación de un sitio web o portal de alto valor, es recomendable disgregar en varias capas todos los elementos tecnologicos, base de datos, webservers, servidores de aplicaciones.

2. Si es posible y entra en el presupuesto del proyecto, se debe pensar en redundancia y alta disponibilidad, asi como disponer de entornos de desarrollo, certficación.

3. Si se disponen de elementos publicos y privados, se recomienda altamente que estos esten totalmente separados.

4. Al momento de comenzar una implementación de software en el 98% de los casos los técnicos tienden a eliminar protecciones a nivel de kernel como por ejemplo de SELinux, en lo posible no eliminarlo (En algunos casos el fabricante te manda a eliminar este tipo de protecciones)

5. Como en todo servidor es importante deshabilitar todos los servicios que no se usan, para que quiero CUPS en un equipo que no lo va a usar o tener share NFS si tampoco va a ser utilizado, es simple, lo que no se usa se apaga.

6. Si en un servidor que se va a ejecutar una aplicación en PHP, que necesidad se tiene que pueda ejecutar scripts en perl o ruby dentro del webserver, por lo tanto aplicamos lo mismo que lo anterior, no permitir que interpretes innecesarios se ejecuten, no se usa, se quita.

7. Una buena configuración de cada uno de los componentes de la solución, nos puede ahorrar dolores de cabezas futuros, un buen esquema de particionamiento, tuning adecuado del manejador de base de datos, nuestros webservers, etc…

8. Si se va a implementar una solucion de un tercero, es muy importante tener por parte del fabricante las mejores practicas de la implementación, asi como los elementos minimos de configuración para un entorno de producción, siempre es muy facil hacer un chmod -R 777 * y que mi solución funcione “bien”.

9. En puntos anteriores comentábamos acerca que posiblemente se ejecutara una aplicación PHP, imaginemos que usamos algún CMS como Joomla o Drupal, por lo que es muy importante como consultor informarle a los administradores del sitio que es fundamental hacer un seguimiento de las listas de correos o notificaciones acerca de la seguridad.

10. Las políticas de passwords a nivel de Sistema Operativo, Base de Datos y el aplicativo deben ser fuertes y se recomiendan que estas sean diferentes.

11. Uno puede tener unas políticas fuertes de passwords, pero si no protegemos nuestras contraseñas de ataques de fuerzas bruta eventualmente algún día van a caer, es recomendable usar elementos como fail2ban que permitan proteger los diferentes servicios que componen tu solución tecnológica.

12. En muchos casos las organizaciones implementan soluciones informaticas, pero olvidan o no disponen de elementos que permitan monitorear en tiempo real, todos los componentes involucrados dentro de una solucion web (Balanceador de Carga, Webservers, DB, Application Server), algunas soluciones libres: Nagios, Zenoss, Zabix.

13. Uno de los momentos mas felices es cuando el proyecto llega a etapas avanzadas y el cliente comienza a ver su portal y pregunta cuando va a ser la publicación final, en muchos casos la organización que implementa esta desesperada por finalizar y cobrar, pero en un alto numero de proyectos se comete el error de nunca definir politicas de respaldos y mucho menos definir planes de contigencia adecuados en caso de una catastrofe, por lo que siempre define esto desde un principio, evaluando los costos y recursos necesarios.

14. Como ultimo, siempre es recomendable hacer un test de seguridad completo despues de realizar la implementación, utilizar herramientas de penetration testing, existen distribuciones dedicadas a esto ejemplo: backtrack.

Fuente: Eidast.me

Artículo original en Linux para Todos

lunes, 20 de junio de 2011

De .com a .loquequieras: el cambio radical de internet

BBC Mundo, Tecnología Lunes, 20 de junio de 2011

Los usuarios tendrán el reto de acostumbrarse a los nuevos sufijos.

Internet abre sus puertas de par en par para recibir la mayor ampliación de sufijos que ha experimentado la red en sus años de existencia.

La Corporación para la Asignación de Nombres y Números (ICANN, por sus siglas en inglés) acordó este lunes incrementar dramáticamente el número de terminaciones genéricas que se pueden registrar en Internet, que actualmente está limitado a 22.

Después de seis años de negociaciones, el abanico de posibilidades se amplía desde una compañía (.bbc) hasta una ciudad (.londres), pero también puede incluir dominios como punto cosas o punto techo. Es decir, que a partir de 2012 las direcciones en internet podrían terminar prácticamente con cualquier palabra y en cualquier idioma.

Pero surgen dudas sobre el impacto que pueda generar esta medida, en particular por la palabras que utilizó el presidente y director ejecutivo de la ICANN, Rod Beckstrom, al anunciar la decisión: "nadie puede predecir hacia dónde nos llevará esta histórica decisión".

Según Beckstrom "la ICANN abre el sistema de dominios de Internet a las posibilidades sin límites de la imaginación humana", un mundo que para muchos analistas se presentan tan amplio como complejo.

Libertad

Desde la aparición del .com hace 26 años, los dominios han estado limitados principalmente en dos grupos: genéricos que actualmente son 22 (.org, .info, .cat.) y por países, que suman alrededor de 250 terminaciones (.es, .uk, .mx).

El principal cambio que se percibe habrá con la nueva medida es la libertad de acción que tendrán las personas, compañías o instituciones al momento de definir una terminación, como lo explicó a BBC Mundo Jordi Hinojosa, miembro del Consejo de Registradores de Dominios de Internet, CORE.

"Se trata de un hito importante, ya que permite a un usuario definir la determinación que mejor lo identifica, no como ocurre ahora que en muchos casos se tienen que conformar con un determinado dominio porque es el que está libre. Ahora podrán tener una terminación más representantiva. A la larga, con el paso de los años, la gente lo encontrará normal".

Hinojosa reconoce que la medida impulsará un cambio en la mentalidad o la lógica con la que la gente accede a Internet, pero aclaró que se trata más de una evolución que de una revolución.

"Se trata de un paso importante para implementar lo que inicialmente se pensó que tenían que ser los nombres de los dominios, es decir, como una manera de identificar los contenidos y personas".

Es por eso que se considera que la nueva regulación podría ser particularmente atractiva para compañías o ciudades ya que les permitiría promocionar su nombre de una forma más directa. También se tratan de dos sectores que podrían hacer frente al elevado costo del trámite, unos US$185.000 para presentar la solicitud para el uso de un sufijo nuevo y US$25.000 anuales para mantenerlo operativo.

Límites

La ICANN anuncio que empezaba una campaña de comunicación sobre las implicaciones que tendrá la ampliación de los dominios con el objetivo de dar a conocer las ventajas que ofrece, pero también aclarar las limitaciones que existen.

Una de las preocupaciones es que el nuevo sistema se pueda prestar para que surjan nuevas formas de fraude en la red, una práctica bastante común y que a diario afecta a miles de usuarios. Sin tomar en cuenta el costo, cualquier persona podría crear dominios como .banco o .nuevofacebook para obtener datos privados de las personas.
Rod Beckstrom, presidente del ICANN.

Beckstrom reconoce que se abre un mundo desconocido.

"Necesitas tener un sistema de prevención de abuso de 24 horas al días los 7 días de la semana. Tiene que ser mucha más riguroso que el que está disponible en el mundo del .Com", advirtió Bruce Tonkin, director de estrategia de Melbourne IT, una compañía de servicio de registros.

"Para usar una analogía de la industria de construcción, será el equivalente a obtener un permiso para construir un rascacielos. Será tan meticuloso y tan costoso el trámite que muchas personas renunciarán a construir el edificio".

Hinojosa no considera que se trate de un problema tan drástico, pero está de acuerdo que ese será uno de los retos para el organismo regulador.

"Tiene que haber ciertos mecanismos para que tu marca esté protegida. No puede ser que si hay 500 dominaciones todo el mundo tiene que registrarse en todas ellas. Además cada vez hay menos cyberokupas porque saben que al final no van a sacar nada de provecho".

La ICANN no descarta un sistema de subasta para resolver la existencia de más de un aspirante como argumentos legítimos para registrar un dominio (Barcelona es una ciudad en España y en Venezuela, por ejemplo), pero son casos que analizará individualmente para encontrar una solución que beneficie a todas las partes.

Pese a la muchas preguntas que surgen, Hinojosa cree que se trata de un cambio positivo ya que brinda a los usuarios más posibilidades.

"El sentido común prevalecerá. La mayoría seguirá usando los buscadores para acceder a la información, pero sabrán que si buscan algo en particular podrán buscar en .berlin o .madrid si lo que quieren es saber más de esas ciudades".

El reto es ahora para los usuarios, quienes tendrán que familiarizarse con el nuevo sistema y determinar su funcionalidad o si seguirá prevaleciendo en el futuro el uso del .com por defecto.

Artículo original en BBC Mundo

La japonesa K es la más veloz entre las supercomputadoras

BBC Mundo, Tecnología Lunes, 20 de junio de 2011

El uso de energía de la computadora K es equivalente al de 10.000 hogares.

Una supercomputadora de origen japonés, de nombre K y con capacidad de llevar a cabo miles de millones de cálculos en un segundo se convirtió en la más veloz del mundo según se dio a conocer en la Conferencia Internacional de Supercomputadoras (ISC, por sus siglas en inglés).

El nuevo modelo logró registrar un rendimiento hasta tres veces más rápido que su antecesora, la china Tianhe-1A, que "sólo" es capaz de alcanzar poco más de 2,5 petaflops.

Si un petaflop equivale a 10 elevado a la 15, (o un 1 seguido de 15 ceros) de operaciones por segundo, el rendimiento de la K Computer es similar al que se podría lograr con un millón de computadoras personales, según explicó el profesor Jack Dongarra, encargado de elaborar la lista de las 500 computadoras más rápidas del mundo en base a su habilidad por procesar simples ecuaciones matemáticas.

El tercer lugar de la lista lo ocupa la computadora apodada Jaguar, propiedad del Laboratio Nacional Oak Ridge de Tennessee, en Estados Unidos, que tiene una velocidad máxima de 1,75 petaflops.

Estados Unidos ocupa otros cuatro puestos entre las diez computadoras más rápidas, pero es el auge de China el que sigue llamando la atención al contar con dos representantes en esta lista.

Proporcional

Una de las claves del diseño de la firma Fujitsu para lograr el récord es que incorpora un procesador de creación propia que se aleja de la tendencia de otras supercomputadoras, que usan productos Intel y AMD.

Debido a su vasto tamaño, que consiste actualmente en 672 compartimentos y que se ampliará hasta los 800, la supercomputadora japonesa requiere de energía eléctrica equivalente a 10.000 hogares y su funcionamiento cuesta alrededor de US$10 millones.

"No se trata de un modelo ineficiente, pero su consumo es proporcional a su tamaño", comentó Hans Meuer, director general de la ISC.

Sin embargo, estas cifras generan dudas sobre su capacidad de evolución en el futuro.

"Tiene un rendimiento impresionante", elogió el director general de centro de datos de Intel, Kirk Skaugen. "Pero usa la mitad de la energía en 8 petaflops de lo que nosotros consideramos que necesitamos para alcanzar 1.000 petaflops (en 2018)".

Artículo original en BBC Mundo

El presente de Internet está en las aplicaciones móviles

Por Pepe Flores | 20 de junio de 2011, 20:48

El presente de Internet está en las aplicaciones móviles

A mediados de 2010, la revista Wired publicó The Web is Dead, un artículo que sacudió a Internet. Su premisa básica es que las aplicaciones web terminarían por sepultar a la navegación web. Por supuesto, esto no implica la inminente muerte de la red como la conocemos, pero sí una profunda transformación. Hoy, a casi un año de este texto, podemos aseverar que el vaticinio se está cumpliendo.

Por primera vez, el uso de aplicaciones móviles desbancó a la navegación web. De acuerdo con un estudio de Flurry con estadísticas de ComScore y Alexa, en junio de 2011, los consumidores emplearon en promedio 81 minutos del día en aplicaciones móviles, en tanto que en navegación web se contabilizaron 74 minutos. La tabla muestra cómo no se trata de un caso aislado, sino de una tendencia constante: en junio de 2010, los usuarios pasaban 64 minutos en web por 43 en apps; en tanto que en diciembre de 2010, los números señalaban 70 minutos en web por 66 en apps.

¿Qué lecturas pueden hacerse de este cambio? Por una parte, que la navegación destaque en las aplicaciones móviles es un resultado directo de que Internet se ha convertido en un medio donde la ubicación es cada vez más importante. Aunque contamos con la posibilidad de acceder a información de cualquier parte del mundo, destaca la importancia del entorno. Los datos deben ser útiles para mi contexto: dónde estoy, hacia dónde voy, qué tengo cerca.

Segundo, que Internet ya es portátil. Mientras que antes estábamos atados a un sitio por nuestra computadora de escritorio, ahora existen las condiciones técnicas para acceder desde cualquier punto de forma cómoda. Hemos pasado de la conexión mediante cable telefónico a las redes inalámbricas y los planes de datos; de la computadora fija a la laptop, el smartphone y la tablet. En términos de Don Ihde, filósofo de la tecnología, hemos logrado que Internet se incruste en nuestro cuerpos, moviéndose hacia donde nosotros vayamos.

Aquí es donde el cambio muestra su cara menos amigable. Navegar a través de aplicaciones móviles supone entregarle nuestros datos a un software desarrollado por terceros. A propósito, rescato un fragmento de un artículo que Federico Erostarbe escribió aquí cuando se publicó el artículo de Wired:

El único problema de este cambio, a corto plazo, es que la web está construida sobre estándares abiertos en los que nuestros derechos están más o menos a salvo, pero de este modo nos estamos moviendo a un modelo más afín a la plataforma iPhone, basado en aplicaciones que no tienen por qué ser abiertas ni respetar ningún estándar pero —y por eso tal vez atraigan mucho más al usuario final— son más personalizadas y encajan mejor en la visión que tiene el usuario actual de lo que quiere de Internet.

Si la tendencia marcha como muestran los números (y la lógica), en diciembre de este año encontraremos un margen más amplio de diferencia. ¿Eso basta para decir que la web está muerta? Para nada. Hay muchos problemas aún por resolver, como la brecha digital que existe en países emergentes, donde no es tan sencillo acceder a un dispositivo móvil o un plan de datos; o la resistence que plantearán algunos defensores de un marco menos prohibitivo ante la dependencia a las apps. Lo que nos queda claro es que el presente —y por supuesto, el dinero— está en las aplicaciones móviles. Éste es su momento.

Artículo original en ALt1040

viernes, 17 de junio de 2011

¿Tu gobierno está preparado para un ciberataque a gran escala?

Por Alan Lazalde | 17 de junio de 2011, 20:45

En la historia corta de Cory Doctorow, When Sysadmins Ruled the Earth (2007), el mundo ingresa en un caos irreversible causado por un ataque cibernético. Lo que sigue es un nuevo mundo reinado por administradores de sistemas guiados por la Declaración de Independencia del Ciberespacio. No diré más al respecto salvo que el escenario planteado está cada vez más cercano a la realidad.

Con ese contexto en mente, cabe preguntarse si nuestros gobiernos está listos para un ciberataque. Por supuesto no me refiero a uno de corte básico, digamos la intrusión a una página .gob, la usurpación de la cuenta presidencial en Twitter o un DDoS al sitio de la odiada dependencia gubernamental en turno. Hablo de un ataque de mayores proporciones, uno tan bien planeado que inhabilite o liquide la infraestructura de telecomunicaciones, energética (e.g., nuclear) o administrativa de todo tu país. Si la respuesta es un sí rotundo, entonces debe ser porque nuestro gobierno por lo menos:

1. Cuenta con un Ministerio de Ciberdefensa. Éste es liderado por un personaje preparado para tomar decisiones relacionadas con eventos de naturaleza tan técnica como política, y de repercusión nacional e internacional. Un Ministerio que no ocupa el sótano destinado para la gente de TI, sino edificios enteros.

2. Mantiene un Ciberejército capacitado para defender y atacar cuando la nación esté en riesgo inminente o en franco ataque. Uno que recluta jóvenes hackers, todos patriotas, que entrenarán cada día sin descanso hasta el retiro o la deserción. Un ciberejército divido en batallones especializados en DDoS, virus de Estado (ver vídeo) y toda clase de técnicas de seguridad informática —también es capaz de crearlas.

3. Sigue una Estrategia Nacional de Seguridad Informática. Es decir, un plan que implemente, con estricto apego a estándares las mejores prácticas en seguridad informática

  • en todos los niveles de gobierno,
  • en toda la infraestructura crítica,
  • y en todos los aspectos de una ciudadanía inexorablemente en red: entre otros asuntos, significa integrar desde la educación básica una formación en temas esenciales de seguridad en Internet —dicho así, también en ciberderechos, claro.

Pongamos a Israel por caso. Su ejército tiene fama de ser uno de los mejor preparados. La infraestructura militar que posee también es de punta. Sin embargo, en términos de seguridad informática a nivel nación es, por decirlo así, decepcionante. Según un estupendo reportaje de Matthew Kalman para Technology Review

[…] las instalaciones estratégicas de Israel se encuentran, esencialmente, sin vigilancia contra un ciberataque.

Benjamin Netanyahu, Primer Ministro de Israel, dijo lo siguiente en una conferencia consciente de esa situación:

Mientras más computarizados estamos, más vulnerables nos volvemos. Por lo tanto no hay elección salvo llevar esto de una forma más enfocada y sistemática.

De hecho, en hace un mes el gobierno israelí conformó la National Cybernetic Taskforce, liderada por un profesor-investigador universitario: Isaac Ben-Israel, matemático, físico y filósofo, que apuntó

Tienes sistemas que por sí mismos no son críticos, pero si alguien que quiere atacar Israel vulnera tres o cuatro de ellos en paralelo, el efecto será la paralización del país.

Otros países, como Estonia, tienen una historia muy interesante que contar sobre ciberataques.

Ahora bien, es evidente que durante los últimos meses hemos visto nacer un nuevo estado de las cosas en la red, una era de inseguridad informática dominada por grupos como Anonymous y LulzSec. Los primeros con una causa política; los segundos, for the lulz. Además de virus diseñados por un Estado-Nación como Stuxnet y Stars, para atacar a enemigos que antes abatían sólo con tanques y misiles. Así que, no tengo duda, la respuesta de nuestros gobiernos debe estar a la altura de esa realidad.

Por todo lo expuesto, considero vital que todo gobierno incluya de forma prioritaria estos temas en su agenda. También que los ciudadanos lo exijamos desde ya.

Foto: Stian Eikeland

Artículo original en Alt1040

jueves, 9 de junio de 2011

Lo que no te cuenta WhatsApp

jueves 9 de junio de 2011

Es la aplicación 'de moda' en el mundo móvil, casi acto seguido al 'dame tu teléfono' viene como pregunta ' ¿ Y tienes WhatsApp ?'. Claramente esta aplicación está cambiando el concepto de los SMS ofreciendo mensajería gratuita.

Alberto, ya alertó sobre la inseguridad de WhatsApp por la forma en la que transmite en claro los datos y lo que eso supone en entornos donde el medio es compartido.

Hoy toca hablar de la parte interna, de la forma en la que WhatsApp almacena y gestiona los datos. Si observamos desde dentro la estructura de ficheros de la aplicación llegamos a dos ficheros llamados msgstore.db y wa.db (las ubicaciones varían, como es lógico, de Android a Iphone). Estos ficheros están en formato SQLite.

Una vez importamos estos ficheros con alguna herramienta que permita ojear su interior (por ejemplo SQLite Manager) nos encontramos la primera sorpresa: ninguno de los datos ahí contenidos están cifrados. En wa.db se almacenan los contactos y en msgstore.db todos los mensajes enviados


Un momento ¿He dicho todos? Si, así es, toda la relación de mensajes enviados y recibidos están ahí. Y porqué hago hincapié en *todos*, sencillamente porque aunque WhatsApp teóricamente da la oportunidad mediante su interface gráfica de eliminar conversaciones, la realidad es que permanecen en la base de datos ad infinitum.

Y el tema es aun mas divertido si el envío o recepción de mensajes se produce en un momento donde esté activado el GPS, ya que WhatsApp almacena también en el fichero msgstore.db las coordenadas


En el caso de Android aun hay mas 'chicha' almacenada que podría ser interesante para un investigador forense -o novio celoso-. Por lo visto WhatsApp viene configurado by default con un nivel de logging extremadamente 'verbose' y almacena, dentro del directorio /files/Logs, unos ficheros con esta fisonomía:

# pwd
/data/data/com.whatsapp/files/Logs
# ls
whatsapp-2011-06-06.1.log.gz whatsapp-2011-06-09.1.log.gz
whatsapp-2011-06-07.1.log.gz whatsapp.log
whatsapp-2011-06-08.1.log.gz
#

En esos ficheros se registra con un nivel altísimo de debug todas las transacciones XMPP que realiza la aplicación, anotando con su correspondiente hora/fecha cuando se recibe o envía un mensaje (entre otras cosas).

011-06-09 00:47:21.799 xmpp/reader/read/message 346XXXXXXX@s.whatsapp.net 1307XXXXXX-30 0 false false

Esos ficheros son fácilmente 'parseables' para extraer la relación de números con los que se ha mantenido algún tipo de conversación. He creado un pequeño script que analiza el fichero y saca dicha relación de números:


import re
import sys
logfile = sys.argv[1]
logdata = open(logfile,"r")
dump = logdata.readlines()
numerosin = []
numerosout = []
for line in dump:
m = re.search('(?<=xmpp/reader/read/message )\d+', line)
if m:
if not numerosin.count(m.group(0)):
numerosin.append(m.group(0))
m = re.search('(?<=xmpp/writer/write/message/receipt )\d+', line)
if m:
if not numerosout.count(m.group(0)):
numerosout.append(m.group(0))
print "Numeros desde los que se han recibido mensajes\n"
print "\n".join(numerosin)
print "\nNumeros a los que se han enviado mensajes\n"
print "\n".join(numerosout)


Que muestra una salida tal que así:

$ python whatsnumbers.py whatsapp-2011-06-08.1.log

Numeros desde los que se han recibido mensajes

34611111111
34622222222

Numeros a los que se han enviado mensajes

34611111111
34622222222


Publicado por Yago Jesus en 07:06

Artículo original en Security by Default

Oracle cede OpenOffice.org a Apache


La compañía de software Oracle ha hecho oficial la cesión de su programa OpenOffice a Fundación Apache, organización no lucrativa centrada en el desarrollo de proyectos de software libre.

Oracle ha asegurado que este gesto es una muestra del “compromiso con los desarrolladores y las comunidades de código abierto”. La compañía espera que Apache ayude en el desarrollo de OpenOffice para mejorar sus servicios.

OpenOffice es una de las suites de ofimática libre más populares entre los usuarios. Con características similares a productos de pago de compañías como Microsoft, OpenOffise se ha convertido en una serie alternativa respecto a los grandes programas ofimáticos. En los últimos meses su desarrollo no había presentado grandes movimientos y se especulaba con que Oracle, desarrollador principal, podría realizar algún movimiento.

Los rumores se han confirmado y ha sido la propia Oracle la que ha confirmado la noticia a través de un comunicado. El vicepresidente de Oracle, Lucas Kowalski ha firmado el comunicado en el que se explicaba la donación del proyecto OpenOffice.org a Apache. Kowalski confirma la donación y comenta las posibilidades de OpenOffice bajo el control de Apache.

“Apache le da a este software una infraestructura madura, abierta y bien establecida para continuar en el futuro. El modelo de Apache permite a los voluntarios colaborar en el desarrollo abierto del producto”, ha explicado Lucas Kowalski. El vicepresidente de la multinacional de software considera que esta iniciativa es una prueba de que “Oracle continúa demostrando su compromiso con los desarrolladores y las comunidades de OpenOffice”.

Desde Apache han mostrado su satisfacción por la decisión de Oracle y han confirmado que dan “la bienvenida a los proyectos individuales y de comunidades de desarrolladores” que trabajarán con OpenOffice.

El movimiento de Oracle puede suponer un gran impulso para OpenOffice, que podría crecer gracias al trabajo de nuevos desarrolladores que potenciarán sus características.

Artículo original en noticiastecnologicas.com

World IPv6 Day concluye sin incidentes y con el doble de tráfico

Publicado el 9 de junio de 2011 por Helga Yagüe

La jornada de “ensayo general” del protocolo IPv6 ha sido un éxito en términos generales, aunque se han producido algunos fallos menores que ya estaban previstos.

Durante el día de ayer numerosas organizaciones de todo el mundo, instituciones y gigantes de Internet como Google, Facebook o Yahoo! participaron en el World IPvv6 Day, una jornada en la que se puso a prueba el nuevo protocolo de direcciones que sustituirá al ya agotado IPv4.

La prueba consistía en poner a funcionar las plataformas web con el sistema IPv6 durante 24 horas para detectar los posibles fallos que se puedan producir en las migraciones.

Durante esta jornada el tráfico de IPv6 se duplicó y no se registraron problemas de seguridad ni de conectividad, según informa Arbor Networks, aunque también destacan que esperaban más tráfico.

Las principales compañías preveían la existencia de “contratiempos menores” como lentitud en la carga de páginas. Estas pequeñas complicaciones se produjeron aunque sin grandes consecuencias para los internautas que en su amplia mayoría pudieron navegar por la red sin ni siquiera darse cuenta del cambio.

Para minimizar al máximo los contratiempos, Google ha habilitado una página en la que los usuarios pueden verificar si sus conexiones están preparadas para el protocolo IPv6.

“El vuelo de prueba ha sido un éxito”, asegura Google, “hemos tenido un 65% más de tráfico IPv6 de lo habitual, no hemos visto problemas importantes y no hemos tenido que deshabilitar el acceso IPv6 para las redes o servicios”.

En España, algunas compañías como Telefónica y webs como BandaAncha.eu se sumaron a la iniciativa, que contaba con el respaldo del ministerio de Industria.

El protocolo IPv4 utiliza direcciones de 32 bits y tiene capacidad para unos 4.300 millones de direcciones, mientras que el IPv6 trabaja en 128 bits aumentando hasta 340 sixtillones el número de direcciones disponibles.

Artículo original en The Enquirer

Stallman: “Los ebooks no respetan nuestra libertad”

Publicado el 9 de junio de 2011 por Helga Yagüe

El padre del software libre, Richard Stallman, ha publicado un artículo titulado “El peligro de los ebooks” en el que explica las razones que le han llevado a detestar este tipo de dispositivos tan de moda en los últimos tiempos.

“En una época en la que los negocios dominan nuestros gobiernos y escriben nuestras leyes, todos los avances tecnológicos ofrecen a los negocios una oportunidad para imponer nuevas restricciones a la opinión pública”, comienza Stallman el artículo en el que contrasta las características de los libros de papel y los electrónicos.

El gurú del software libre pone como ejemplo los Kindle de Amazon, que se han hecho muy populares entre los usuarios. Para empezar, Stallman se queja de que el gigante de Internet requiere que los usuarios se identifiquen para comprar un ebook, algo que no sucede con los libros tradicionales que se pueden pagar en efectivo y anónimamente.

El lector debe aceptar una “licencia restrictiva” para utilizar un ebook, cuyo formato “es secreto” y sólo puede ser leído con software propietario, según apunta Stallman.

También señala que en algunos países Amazon le dice al usuario que no es dueño del libro, cosa que no ocurre cuando una persona compra un libro de papel, y destaca la imposibilidad de copiar un ebook debido a al DRM (Digital Restrictions Management).

“Tenemos que rechazar los ebooks hasta que respeten nuestra libertad”, señala el acérrimo defensor del software libre, “podemos apoyar los autores de otras formas que no requieren restringir nuestra libertad”.

Artículo original en The Enquirer

Cisco presenta sistema de 96 terabits por segundo y anuncia la era del zettabyte

Velocidad prodigiosa

[ 09/06/2011 - 08:04 CET ]

El Nuevo Sistema Cisco ASR 9000, de 96 Tbps, permite a cada hombre, mujer y niño en Beijing, Londres y Moscú (43 millones de personas) mirar una película de video de alta definición simultáneamente o descargar el equivalente a 180.000 DVDs por minuto.

Diario Ti: Cisco anunció el 8 de junio su nueva propuesta para que los proveedores de servicio puedan construir Internet de próxima generación, de manera más visual, móvil y virtual.


La empresa ha presentado los avances más importantes de su Cisco® ASR 9000 Series Aggregation Services Routers, que marcarán nuevos puntos de referencia y aumentarán las capacidades dramáticamente en la conexión de Internet de nueva generación y transformarán la comunicación de banda ancha y la industria de entretenimiento.

Nuevas capacidades, mejoras en desempeño y ahorros significativos en costos son posibles con la última innovación de Cisco, la tecnología nV (Virtualización de Red), que será desplegada primero en el sistema Cisco ASR 9000, y luego estará disponible en otras plataformas de Cisco en el futuro a medida que evolucionan las redes.

Cisco predice que para el 2015, el número de dispositivos conectados a la red será de más de 15 mil millones, dos veces la población mundial, y la cantidad total de tráfico de Internet se cuadruplicará, alcanzando los 966 exabytes por año (Cisco Visual Networking Index (VNI) Forecast (2010-2015). El anuncio de hoy ayuda a los proveedores de servicio a crecer en este entorno tan cambiante y a capitalizar en estas tendencias.

El sistema Cisco ASR 9000 está posicionado en las secciones de conexión y agregación de la red y complementa al Cisco CRS-3 Carrier Routing System (CRS) localizado en el centro de Internet de nueva generación. Ayudará a habilitar nuevas experiencias de usuarios, nuevas oportunidades de ingresos y nuevas maneras de colaborar en el lugar de trabajo.

Varios de los más importantes proveedores de servicio, tales como China Telecom, Comcast, Cox Communications, FastWeb, NTT-Plala y Tata Communications, están desplegando el Cisco ASR 9000, uniéndose a más 500 clientes proveedores de servicio de las series ASR 9000.

Hechos Clave
El Nuevo sistema Cisco ASR 9000: Cisco está expandiendo sus series Cisco ASR 9000 con el nuevo Cisco ASR 9922 Router e interfaces de alta densidad de 10G y 100G para la conexión de la red y el Cisco ASR 9000v para la capa de agregación. Estos nuevos agregados, junto con los routers Cisco ASR 9010 y Cisco ASR 9006, ayudarán a entregar un único sistema de conectividad de alta velocidad residencial y comercial para entregar nuevos servicios de video, móviles y de nube.
Tecnología de Virtualización de Red Innovadora: Cisco está anunciando la tecnología Cisco nV (virtualización de red), que une inteligentemente la conexión de red, agregación y capas de acceso en un único sistema Cisco ASR 9000 de Internet de nueva generación que simplifica la operación, aumenta la capacidad de red y acelera los servicios IPv6.

Capacidad de Red Superior: Habilitado por la tecnología Cisco nV, el Nuevo sistema Cisco ASR 9000 ofrece una capacidad de sistema líder de la industria, 36 veces mayor que sus productos competidores, de 96 terabits por segundo, y con esta cantidad, un sistema único Cisco ASR 9000:
Puede transmitir las grabaciones de todos los partidos de Super Bowl, World Cup y Cricket World Cup alguna vez jugados en menos de un segundo.

> Permite a cada hombre, mujer y niño en Beijing, Londres y Moscú (aprox. 43 millones de personas) mirar una película de video de alta definición simultáneamente.

> Puede descargar el equivalente a 180.000 DVDs por minuto.

> Soportando hasta 84.840 puertos Gigabit Ethernet (GE), el sistema único Cisco ASR 9000 puede entregar una conexión de un Gigabit Ethernet a casi todas las residencias en Orlando, Florida.; Kowloon City District, Hong Kong; ó Venecia, Italia.

Operaciones de Red Simplificadas: El Nuevo sistema Cisco ASR 9000 utiliza la tecnología Cisco nV para reducir los costos operativos en hasta un 70 por ciento * (comparado con las plataformas de conexión competidoras), permitiendo un retorno de inversión en menos de un año. (*Publicado en ACG Research *)

Tal simplificación y ahorro es logrado a través de capacidades plug-and-play, administración de punto de servicio utilizando Cisco Prime for Internet Protocol Next-Generation Network (IP NGN), configuraciones de costo efectivo y características de fácil despliegue. Estas reducen la necesidad de una costosa instalación en el lugar, soporte y mantenimiento, mientras brinda ahorros en hardware y software.

Esta capacidad está disponible en más de 500 clientes existentes de Cisco ASR 9000 con una simple actualización.

Simplifica la Transición IPv6 y Cisco Videoscape: Cisco está entregando su estrategia de construir redes de nueva generación IPv6 para simplificar el diseño, despliegue y administración de servicios en proveedores de servicio globales. El Cisco Integrated Service Module (ISM) con tecnología Cisco nV entrega un único punto de contacto para despliegue de grado carrier IPv6 a través de miles de dispositivos. La tecnología Videoscape está soportada con el Cisco Integrated Service Module para el almacenamiento de caché, transmisión y monitoreo para optimizar y monetizar la experiencia de video.


Pankaj Patel, vice presidente senior de ingeniería y gerente general de negocio de proveedores de servicio, Cisco, declaro: "Este es un período crítico en la industria de las comunicaciones de banda ancha. Para permanecer competitivos y satisfacer las necesidades de los consumidores y clientes, los proveedores de servicio deben entregar una experiencia de Internet de próxima generación. Respaldado por las innovaciones de red líderes de la industria tales como la tecnología nV en el sistema Cisco ASR 9000, Cisco se compromete a permitir a nuestros valiosos clientes proveedores de servicio a mantener el ritmo de las demandas de los usuarios a la vez que lanzan nuevos servicios generadores de ingresos."

Artículo original en Diario TI

miércoles, 8 de junio de 2011

John Day: “La IPv6 sigue sin ser la solución"

Día Mundial de IPv6

[ 08/06/2011 - 08:02 CET ]

El pionero de Internet, historiador y científico John Day considera que Internet actual no deja de ser una demo incompleta de lo que debería ser una red de computadores: “IPv6 no aporta ninguna solución a la Internet del Futuro, es solo un parche más de la Internet actual, ya saturada".

Diario Ti: La Fundación i2CAT ha empezado a trabajar con la Universidad de Boston, el centro de investigación irlandés TSSG y la start-up estadounidense TRIA Network Systems en el desarrollo del primer prototipo basado en la arquitectura RINA (Recursive InterNetwork Architecture), una teoría general sobre la arquitectura de redes desarrollada por el pionero de Internet John Day. Este profesor e investigador de la Universidad de Boston ha sido invitado recientemente por i2CAT a Barcelona para aportar su visión de la Internet del Futuro, una red de computadores mucho más sencilla que la actual y, por tanto, más económica de construir y de operar, proporcionando al mismo tiempo multi-homing, movilidad, multicast y calidad de servicio en los usuarios.

John Day, durante su visita a Barcelona, ha sentenciado que la Internet actual no deja de ser una demo incompleta de lo que debería ser una red de computadores: “se trata de un reflejo muy cercano a los primeros prototipos de redes de conmutación de paquetes construidos durante los años 70, con la gran diferencia de que el hardware ha mejorado de forma notoria; es más, algunas arquitecturas de redes de esa época que no prosperaron (como Cyclades, XNS, DECnet o OSI) tenían menos limitaciones estructurales que la arquitectura actual basada en protocolos TCP/IP".

Según el teórico, gran parte de los problemas de la arquitectura TCP/IP (multi-homing, movilidad, escalabilidad en el enrutamiento) provienen del hecho de que la dirección IP identifica una interfaz en un nodo en lugar del nodo en sí. Como las redes IP calculan las rutas como una secuencia de direcciones IP (y por tanto como una secuencia de interfaces), si un nodo está conectado a la red a través de más de una interfaz (multi-homing), la red no tiene modo de saber que todas esas interfaces pertenecen al mismo nodo. En consecuencia, cuando una interfaz del nodo falla, la red no pasa a enviar automáticamente los paquetes a través de otra interfaz del mismo nodo, sino que lo descarta.

“Teniendo en cuenta que la IPv6 se basa en el mismo protocolo y continúa identificando la interfaz y punto, nos encontramos con el mismo problema", asegura Day, que señala que “IPv6 no aporta ninguna solución a la Internet del Futuro, es solo un parche más de la Internet actual, ya saturada".

Lo que propone el profesor con su arquitectura RINA es un modelo en el que una capa es una aplicación distribuida que proporciona servicios de comunicación entre procesos a través de un cierto ámbito (como un enlace punto a punto, una red local, una red regional, una red de redes…). Estas capas (denominadas DIFs en terminología RINA) son recursivas, ya que se proporcionan servicios la una a la otra, y se pueden utilizar tantas como el diseñador de red considere oportuno. Es decir, en contraposición al modelo actual, estaríamos hablando de un solo tipo de capa (configurable dependiendo de dónde opere) que se puede repetir tantas veces como sea necesario para gestionar mejor los recursos de red. El modelo actual, basado en un número fijo de capas funcionales (cada capa realiza una función diferente) es más complejo e ineficiente por la multitud de protocolos que necesita, inflexible y, además, las implementaciones no siguen el modelo teórico actual (protocolos que están entre dos capas, funciones repetidas en distintas capas, interacciones entre capas que no deberían suceder).

La Fundación i2CAT contribuirá a hacer realidad esa teoría, desarrollando junto a las entidades internacionales citadas el primer prototipo de esta revolucionaria arquitectura. Este proyecto pretende validar y mejorar las especificaciones de los protocolos que implementan RINA, obteniendo además como resultado dos prototipos desarrollados de manera independiente pero interoperables. Otro importante objetivo del proyecto es el de demostrar que para adoptar la arquitectura de RINA no es necesario un complejo proceso de transición, sino que en el futuro RINA se podrá empezar a desplegar coexistiendo con redes TCP/IP. Sus resultados sentarán la base para que se sigan desarrollando mejores implementaciones y se pueda experimentar con las propiedades y los beneficios que RINA conlleva.

La Fundación i2CAT es un centro de investigación e innovación fundado en 2003. Tiene como principal objetivo conseguir una Internet del futuro accesible y abierta. Para ello, la Fundación pone la investigación y la innovación de Internet al alcance de la sociedad, mediante la colaboración entre la Administración pública, las empresas y los grupos de investigación de las universidades y del mundo educativo para el desarrollo de proyectos innovadores en el ámbito de las nuevas tecnologías de la sociedad del conocimiento.

Artículo original en Diario TI