sábado, 28 de febrero de 2009

"Solo" pierde su batalla contra la extradición a EE.UU

Los representantes legales de McKinnon pidieron al fiscal en diciembre que le procesara aquí por delitos menores, después de que el interesado, de 42 años, firmara una declaración en la que admitía haber violado la ley británica de abuso informático de 1990.

Agencias - El pirata informático británico Gary McKinnon, conocido como ‘Solo’, ha perdido hoy su batalla contra la extradición a EEUU al rechazar la fiscalía del Reino Unido procesarle en este país.

Los representantes legales de McKinnon pidieron al fiscal en diciembre que le procesara aquí por delitos menores, después de que el interesado, de 42 años, firmara una declaración en la que admitía haber violado la ley británica de abuso informático de 1990.

Pero la fiscalía ha rechazado hoy presentar cargos contra el acusado al amparo de esa legislación, ya que considera que las alegaciones de Estados Unidos son mucho más graves.

ACTIVIDADES FRAUDULENTAS

EEUU le reclama por presuntas “actividades informáticas fraudulentas“, después de que el pirata accediera ilegalmente a varios de sus sistemas, que se suponen los más seguros del planeta, entre febrero del 2001 y marzo del 2002, como ordenadores de la Administración Nacional de Aeronáutica y del Espacio (NASA), el Ejército, la Marina, el Departamento de Defensa y la Fuerza Aérea.

El pasado 28 de agosto, el Tribunal Europeo de Derechos Humanos rechazó el recurso contra la extradición que había presentado McKinnon, que entró en los ordenadores del Gobierno estadounidense antes y después de los atentados del 11 de septiembre del 2001 (11-S).

El británico alegó en esa ocasión que, de ser condenado en EEUU, podría sufrir tratos inhumanos o degradantes, argumento que aparece en la Convención Europea de Derechos Humanos.

DÉCADAS DE PRISIÓN

El presunto “cíber-delincuente” puede ser condenado en EEUU a una pena de varias décadas de prisión, además de cuantiosas multas, ya que la Fiscalía sostiene, entre otras cosas, que modificó y borró archivos en una instalación naval poco después de los atentados del 11-S, lo que dejó los sistemas no operativos.

‘Solo’ admite que accedió a los ordenadores desde su vivienda en Londres, pero asegura que no pretendía sabotearlos, sino que sólo buscaba información sobre ovnis, a fin de destapar una supuesta conspiración para ocultar avistamientos.

La defensa de Gary McKinnon ha alegado que su cliente no es un terrorista ni un simpatizante del terrorismo, y sostiene que el Gobierno británico rechaza procesarle para permitir a la Administración estadounidense dar ejemplo con su caso.

Además, señalan que el experto informático entró en los ordenadores estadounidenses no por malicia sino por “ingenuidad”, ya que padece el síndrome de Asperger, un tipo de autismo, por lo que no debe ser considerado un delincuente.

Extraído de Noticiasdot.com

Gary McKinnon

Gary McKinnon, también conocido como Solo, (nacido en Glasgow en 1966) es un hacker Británico acusado por los Estados Unidos de haber perpetrado «el mayor asalto informático a un sistema militar de todos los tiempos». Actualmente (junio de 2006) se encuentra defendiéndose de una posible extradición a los Estados Unidos. En Febrero 2007 una solicitud está siendo escuchado en el Corte Alto de Londres.

Gary McKinnon ha luchado durante 6 años contra la extradición a los Estados unidos, donde arriesga entre 60 y 70 años de cárcel y al pago de una indemnización de 2 millones de dólares por intrusión informática en el período de febrero de 2001 a marzo de 2002. La apelación será decidida en estos días (Junio de 2008) en la última instancia británica de apelación, un panel en la Cámara de los Lores. Después de la audiencia, los integrantes de la Cámara disponen hasta de 3 semanas para anunciar su decisión.

Gary McKinnon admite haber realizado las intrusiones de las que se le acusa. Sin embargo, cuestiona el calificativo de terrorista con que se le ha tratado luego de intervenir sistemas militares estadounidenses.

Durante seis años, Gary McKinnon ha luchado contra la extradición a Estados Unidos. En 2002 fue detenido y confesó haber intervenido en 1997 los sistemas TI de las fuerzas armadas estadounidenses y de NASA. McKinnon explicó que su única intención había sido encontrar información sobre ovnis.

Hace dos años, el tribunal supremo británico falló que McKinnon podría ser extraditado a EE.UU, por lo que su abogado elevó una apelación ante la última instancia judicial posible, la Cámara de los Lores. Los lores presentaron su conclusión, que autoriza la extradición.

El abogado de McKinnon intentará ahora recurrir al tribunal europeo de derechos humanos, con el fin de evitar la extradición. El abogado destaca que el marco punitivo es totalmente desproporcionado para los cargos que se imputan a su cliente.

Sin embargo, Estados Unidos califica el caso como “el mayor ataque militar cibernético de su historia", por lo que se propone invocar la ley antiterrorista al procesar a McKinnon. Esta situación podría enviar al hacker, de 42 años de edad, a prisión por el resto de su vida.

Trasfondo

El administrador de sistemas desempleado es acusado de asaltar 97 computadoras estadounidenses tanto militares como de la NASA durante 2001 y 2002. Las redes que presuntamente asaltó incluyen redes propiedad de la NASA, del ejército estadounidense, de la marina estadounidense, del departamento de defensa estadounidense y de las fuerzas aéreas estadounidenses, así como una perteneciente al Pentágono. Los estimaciones de los Estados Unidos afirman que los costes de seguimiento y corrección de los problemas que se generaron y de los que Gary McKinnon es acusado rondan los 700.000 dólares estadounidenses.

McKinnon fue seguido originalmente y arrestado bajo la «ley de uso indebido de computadores» (NOTA: Computer Misuse Act) por la unidad de delitos tecnológicos británica en 2002, y más tarde ese año fue inculpado por el gobierno de los Estados Unidos. Permaneció en libertad condicional, y durante ese periodo debía presentarse en las oficinas policiales cada tarde y estar en casa cada noche. Además se le prohibió el uso de una computadora con acceso a internet. No ha habido desarrollos posteriores en relación a los cargos por los que se le acusa en el Reino Unido, pero los Estados Unidos comenzaron en 2005 los trámites formales para su extradición.

Si la extradición a los EE.UU. se lleva a efecto, McKinnon se enfrenta a penas de cárcel de hasta 70 años y él ha expresado su temor a ser enviado a Guantánamo. Él ha dicho que impugnará la petición de extradición ya que él cree que debería ser encausado en el Reino Unido, su principal argumento es que los delitos fueron cometidos allí y no en los EE.UU.

En una entrevista televisada por la BBC, alegó que pudo acceder a redes militares tan sólo usando un script en Perl que buscaba contraseñas que tuvieran cero caracteres; en otras palabras su alegación sugería que en esas redes existían computadoras con la contraseña por defecto aún por activar.

Extraído de la Wikipedia


jueves, 26 de febrero de 2009

Intel presenta nuevos logos

por : Jesús Maturana: 26 Feb 2009, 17:08

Intel acaba de llevar a cabo un lavado de cara de los logos que identifican los distintos procesadores de la empresa, cambiando el formato, color y disposición del mismo.

El nuevo logo es mucho más ancho que el anterior y en la esquina superior derecha aparece una imagen que parece un chip. Los logos Core i7 y Core 2 Extreme son negros mientras que los logos Core 2 Quad, Core 2 Duo, Core 2 vPro son azules y realmente muy similares entre sí.

Varios logos Centrino son blancos y en la parte superior está en Centrino 2 con tecnología VPro. Los logos de los modelos Itanium, Xeon y Core 2 Viiv no han cambiado prácticamente, a excepción del Xeon que ha cambiado de color a un nuevo azul, probablemente para diferenciar los nuevos Xeon con núcleo Nehalem.

Los nuevos logos serán efectivos el 1 de abril, primer día del segundo trimestre de año.

Extraído de The Enquirer

Intel presentará dentro de un mes Nehalem-EP, doble CPU, 8 núcleos

por : Jesús Maturana: 26 Feb 2009, 22:32

Los nuevos procesadore Nehalem-EP, también conocidos como Gainestown, saldrán a la luz dentro de un mes. En esencia mantiene el formato y el socket LGA1366 del procesador Core i7, sólo que con soporte de doble CPU y dos links QPI por chip, uno para comunicarse con el chipset Tylersburg y otro para comunicación de alta velocidad con el gemelo Nehalem. Serán por tanto dos CPUs Nehalem en un mismo chip.

La versión de servidr de Tylersburg es idéntico al chipset de sobremesa (X58) con soporte de un enlace extra QPI para comunicarse con la segunda CPU, o el segundo Tylersburg en configuración de doble NorthBridge, para disponer de máquinas con 4 PCIe x16, ofreciendo aademás un gran potencial de proceso GPGPU.

Lo que es más interesante de dicho nuevo chip doble CPU no es el núcleo en sí, a día de hoy todos conocemos l oque la arquitectura Nehalem (Core i7) es capaz de hacer. Por ello la mejora en sí es el aumento de ancho de banda entre el mismo y el equipo que al disponer de un doble enlace QPI sumaría 51,2 GB/, que , a modo comparativo, es el doble de rápido que el más rápido FSB1600 anterior. Si después añadimos los 32GB/s del ancho de banda de memoria por procesador, se dispondrá de una máquina capaz de trabajar con cualquier tarea dependiente de caché y/o memoria.

Extraído de The Inquirer

sábado, 21 de febrero de 2009

Y buéh... había que lavar el auto... ¿vió?

Celular con sistema operativo Windows

Mouse para coquetas...

Mi-Fi, una nueva forma de acceder a Internet a través de la red móvil

Ayer, 16.51

Su nombre es Mi-Fi porque es una mezcla entre Wi-Fi, red móvil y navegación personal. Se trata de una nueva generación de dispositivos y, también, de una nueva forma de acceder a Internet a través de la red móvil. Llegará a España a partir de mayo.

En la actualidad, para acceder a Internet desde un portátil, la forma más corriente consiste en conectar un módem USB, descargar el software de la operadora correspondiente y realizar la conexión. Con Mi-Fi es diferente, aunque sí requiere que introduzcamos en él la tarjeta SIM.

Una vez encendido, el dispositivo aparece en la ventana de redes inalámbricas del ordenador (o del móvil), y nos podremos conectar a él vía Wi-Fi como si se tratara de una simple red más. Basta con dejarlo encima de una mesa para que Mi-Fi permita la conexión, a 7,2 megas por segundo, de hasta cinco dispositivos diferentes, ya sean ordenadores, teléfonos móviles o videoconsolas.

Mi-Fi, cuyo precio podría rondar los 200 euros, incorpora además una ranura para tarjetas micro SD, cuyo estándar está ya en los 16 gigas. Y cualquier archivo, aplicación o documento que guardemos en esa tarjeta será accesible desde cualquiera de los dispositivos conectados a él.

La única pega que se le puede poner a Mi-Fi es que durante el proceso de recarga -funciona con una batería que tiene una autonomía de unas dos horas y media- no admite conexiones. No obstante, el fabricante del invento, Novatel, dice que está trabajando para solucionar este contratiempo.

Extraído de Yahoo Noticias España

Cifrado total de discos duros en Windows: TrueCrypt + Pismo

[Enviado a Kriptópolis como comentario anónimo]

TrueCrypt permite cifrar todo el disco duro (excepto el sector de arranque). Eso incluye toda la partición Windows -no sólo carpetas y archivos- de modo que al arrancar, el sistema te pedirá la contraseña para poder cifrar y descifrar los datos al vuelo.

De esta forma, si el disco duro se pone en otro PC no se verán los datos de la partición, o mejor dicho, lo que se vea estará cifrado.

Ojo, porque cifrar y descifrar consumen CPU y dependiendo del algoritmo elegido la velocidad de puede ser bastante baja.

Personalmente recomiendo cifrar sólo la partición del SO y no todo el disco. De esta manera hay una partición sin cifrar que se puede usar como temporal para aquellas tareas que requieran mucha velocidad de disco. Por contra, está claro que lo que se escriba en ella no debe ser crítico...

* Mi esquema preferido con un sólo HDD (caso de portátiles):

HDD0:
<<- Partición0 4GB - Para el PageFile - Evita que se fragmente y estará en la parte más rápida del disco, al principio. ->>
<<- Partición1 ZGB - Z: El tamaño para nuestros datos temporales que requieran altas prestaciones ->>
<<- Partición2 (4+X)GB - X: El tamaño ajustado en lo posible a lo que estará ocupado) El SO en sí. ->>
<<- Partición3 YGB - Y: El tamaño para nuestros datos no temporales ->>

En este sólo cifraría las particiones 0, 2 y 3, dejando que la 1 tenga su máxima velocidad (sin cifrar).
* Mi esquema preferido con más de un sólo HDD (caso de sobremesa), muy similar, sólo que repartiendo entre varios discos. Así, para dos discos:

HDD0:
<<- Partición0 4GB - Para el PageFile - Evita que se fragmente y estará en la parte más rápida del disco, al principio. ->>
<<- Partición1 (4+X)GB - X: El tamaño ajustado en lo posible a lo que estará ocupado) El SO en sí. ->>

HDD1:
<<- Partición0 ZGB - Z: El tamaño para nuestros datos temporales que requieran altas prestaciones ->>
<<- Partición1 YGB - Y: El tamaño para nuestros datos no temporales ->>

En este sólo cifraría las particiones HDD0-0, HDD0-1 y HDD1-1, dejando que la HDD1-0 tenga su máxima velocidad (sin cifrar).
* Mi esquema preferido con más de un sólo HDD (caso de sobremesa), muy similar, sólo que repartiendo entre varios discos, para tres discos:

HDD0:
<<- Partición0 4GB - Para el PageFile - Evita que se fragmente y estará en la parte más rápida del disco, al principio. ->>
<<- Partición1 (4+X)GB - X: El tamaño ajustado en lo posible a lo que estará ocupado) El SO en sí. ->>
HDD1:
<<- Partición0 YGB - Y: El tamaño para nuestros datos no temporales ->>
HDD2:
<<- Partición0 ZGB - Z: El tamaño para nuestros datos temporales que requieran altas prestaciones ->>
En este sólo cifraría las discos duros HDD0 y HDD1, dejando que el HDD2 tenga su máxima velocidad (sin cifrar).
* Mi esquema preferido con más de un sólo HDD (caso de sobremesa), muy similar, sólo que repartiendo entre varios discos, para cuatro discos:

HDD0:
<<- Partición0 4GB - Para el PageFile - Evita que se fragmente y estará en la parte más rápida del disco, al principio. ->>
HDD1:
<<- Partición0 (4+X)GB - X: El tamaño ajustado en lo posible a lo que estará ocupado) El SO en sí. ->>
HDD2:
<<- Partición0 YGB - Y: El tamaño para nuestros datos no temporales ->>
HDD3:
<<- Partición0 ZGB - Z: El tamaño para nuestros datos temporales que requieran altas prestaciones ->>

En este sólo cifraría los discos duros HDD0, HDD1 y HDD2, dejando que el HDD3 tenga su máxima velocidad (sin cifrar).

Dejar una partición dedicada al PageFile es mucho mejor que ponerlo en otra, según he podido obsevar en mis pruebas, de hecho las mejores prestaciones las he obtenido haciendo que dicha partición sea FAT32 y no NTFS, de ahí el límite a 4GB (FAT32 no admite archivos mayores). Recordad que la partición ha de ser ligeramente mayor que el PageFile o Windows os dirá que no le cabe. Requiere que haya unos megas libres, a pesar de decirle que sea de tamaño fijo (mismo tamaño mínimo y máximo).

Que el SO y pagefile estén en discos diferentes hace ganar mucho en prestaciones.

Asimismo recordad que normalmente (salvo discos de muy altas prestaciones y muy caros) los discos duros leen y escriben más rápido en la parte más baja de direcciones (cilindros más bajos). En algunos la direfencia es de hasta el doble, por ejemplo los primeros cilindros a unos 80MB/s y los últimos a unos escasos 30MB/s. Esto hace que si la partición para el SO está al final del disco sea mucho más lento el PC.

A lo que me refiero con "datos temporales que requieran altas prestaciones" es a datos intermedios generados por muchas aplicaciones que todos conocemos y no voy a mencionar, pero que tienen algo un poco especial: se usa poca CPU y mucha entrada/salida. Además suelen ser archivos muy grandes, de 4.32GB 4.7GB o incluso de 8.5GB. Ya sabéis a qué me refiero y con la llegada de los nuevos medios ópticos podrían ser de 25GB o incluso hasta 50GB.

Lógicamente, al no cifrar dicha partición lo mejor es que cuando dichos datos temporales no sean ya necesarios (es decir, cuando ya estén en su medio externo correspondientemente tratados) primero usad algún programa que sobreescriba partes de los archivos con datos aleatorios y tamaños variables en posiciones concretas de los archivos, para luego "formatearla" tras su uso. Digo "formatearla" y no simplemente borrarlos para que las estructuras (MFT, etc...) sean borradas. Lo ideal sería un Wipe, pero eso lleva demasiado tiempo. Luego usad algún programa que genera archivos con datos aleatorios y de tamaños variables en posiciones concretas del disco y después volved a "formatearla". Con esto se evitará que los programas de recuperación de datos por contenido puedan ver alguna estructura de lo que había en la partición no cifrada y así se evita que se pueda recuperar algo sin el coste de un wipe completo. Obviamente si prima la seguridad el wipe es fundamental, y si se es un paranoico pues nada de particiones sin cifrar y -eso sí- más lentos esos procesos de entrada / salida.

Mucho ojo con cifrar la partición del sistema operativo. Causa tres efectos laterales, uno evitable y dos no:

El evitable es que se pierda la contraseña. TrueCrypt permite tener a buen recaudo un método para subsanar esto e incluso un borrado accidental del cilindro cero (reparticionar el disco, por ejemplo).

Los no evitables son: 1) La partición no se podrá cambiar de tamaño mientras esté cifrada y 2) Si tratas de clonar dicha partición para tener un respaldo / backup, al estar cifrada no se podrán comprimir los datos que vea el programa clonador y tampoco verá la estructura, por lo que el archivo imagen ocupará tanto como ocupe la partición.

Espero os sirva de ayuda, pues os veo no muy versados en el tema, algo muy comprensible. Pocos fanáticos hay como yo que inviertan meses en pruebas hasta dar con un sistema bueno.

TrueCrypt también permite cifrar el 100% de un PenDrive o disco externo. En este caso recomiendo que en el Administrador de disco de Windows le digáis que no le asigne letra a la partición no montada, para que accidentalmente no os pida darle formato y evitar así el riesgo de formatearla accidentalmente.


Pismo File Mount

También hay por la red otro programita llamado Pismo File Mount bastante útil, que es capaz de crear archivos y montarlos como una carpeta o una unidad. Muy útil.

Lo bueno: Admite que el contenido del archivo se comprima y/o cifre. Tras ser montado se puede usar como si fuera una carpeta. Comentar que el ratio de compresión gana con creces a la compresión de NTFS y además es más rápida. Sólo tiene una pega: el tamaño del archivo sin montar sólo sabe crecer, no tiene ninguna opción para compactarlo; se soluciona creando uno nuevo y montando ambos; movemos los de uno al otro listo.

Además el mismo programa permite crear archivos con un ratio de compresión mucho más alto que también se pueden montar, pero éstos sólo serán de lectura y no podrán ser borrados ni alterados; muy parecido a lo que hace 7zip, ideal para imágenes de CDs/DVDs, etc.


Resumen

Como resumen: TrueCrypt para cifrar el Arranque, SO y datos críticos, medios externos etc... y si somos maniáticos o paranoicos sobre archivos / particiones cifradas con TrueCrypt podemos añadir otro nivel de cifrado más, con Pismo File Mount. Recordad que Pismo File Mount también permite comprimir al vuelo, parecido a como lo hace la NTFS, pero con un notable mejor ratio.


Algunas notas finales

- Siempre tened cuidado con qué trasteais; por ejemplo, no se os ocurra la burrada de pensar que Pismo podrá comprimir el directorio de Windows. Pismo crea archivos que pueden ser montados y accedidos como carpetas, pero el SO debe estar arrancado para ello.

- Jamás olvidéis hacer un backup del disco antes de cifrarlo, pues si no tienes cuidado y haces mal las cosas puedes perder todo. Guarda en un papel escrito la contraseña y dicho papel guardalo a salvo en casa, ... trabaja sobre seguro, haz pruebas para familiarizarte antes en un PC que no tenga riesgos. Para ello están VirtualPC o VirtualBOX, máquinas virtuales en las que montar un sistema operativo y hacer pruebas (si no dispones de un PC físico donde hacerlas). Recomiendo familiarizarse antes con el sistema de cifrado del disco duro antes de hacerlo sobre el definitivo. También recomiendo que no dejéis que se cifre el disco en el arranque, sino mientras estéis trabajando en windows de fondo. De lo contrario el proceso debería terminar sin poderlo parar; yo mismo metí la pata y aborté el proceso de cifrado en el arranque, perdí el SO y me tocó reinstalarlo; por eso cuando se reinicie y pida si cifrar el disco ahora (en el arranque) o luego (mientras se trabaja en windows) elegir luego. Además así podréis apagar el PC aunque no haya acabado. En el siguiente arranque continuará mientras trabajamos en Windows.

- Sugerencia: probad Pismo sobre un PenDrive, el rendimiento en escritura aumenta una burrada. El motivo es simple: cada vez que se escribe un archivo pequeño en un PenDrive (dado que windows por defecto desactiva la caché de escritura) se escribe la tabla de asignacion de datos (FAT o $MFT), por lo que la velocidad con archivos pequeños es pésima; pues bien, al hacerlo dentro de una carpeta resultante de haber montado un sistema de archivos virtual (vamos, un archivo de Pismo montado como carpeta), dichas escrituras tienen su propia caché y la FAT/$MFT sólo se escribe una única vez, al final. En mis pruebas con algunos PenDrives he observado que si escribo 1000 (mil) archivos de menos de cuatro KB (<4096bytes)>8*1024*1024*1024 Bytes). Paranoico, no. Seguro de que no usarán el ataque a fuerza bruta, sí. La clave es mayor que los datos y sólo la uso una única vez, vamos una clave para cada archivo a proteger.

Por ello resulta que el coste de inventarse qué habría es mucho menor que probar a fuerza bruta cada posible valor de la clave; además el número de posibles claves es mayor que el número de posibles datos.

Lo explicaré con un ejemplo:

Clave de 4Bytes, dato en limpio ocupa 2 bytes -> Número de posibles claves 256^4=4294967296, número de posibles datos en limpio 256^2=65536; ahora con 8 bytes de clave y 3 bytes de datos: número de posible claves 256^8=18446744073709551616 y número de posibles datos: 256^3=16777216.

Espero quede claro; si no pondré otro ejemplo: si la clave es más larga que los datos y sólo se usa una vez una simple función XOR basta para garantizar la seguridad de los datos y si no intentad descifrar esto (sin la clave y obviamente sin el dato en claro):

Dato en claro: HOLA -> 072 079 076 065
Clave: LUIS -> 076 085 073 083
Dato protegido: **** -> 004 026 005 018

Espero haber resuelto no sólo vuestras dudas sobre con qué cifrar el disco duro para que la partición de Windows esté cifrada, sino también que entendáis un poco la seguridad y su coste, y así podáis determinar el equilibrio entre el coste y cuán seguros queráis tener los datos.

Suerte y al toro!

Extraído de Kriptópolis

miércoles, 18 de febrero de 2009

Un auto bastante rápido "Bugatti Veyron"


El Bugatti EB16.4 Veyron, conocido como Bugatti Veyron, es un automóvil superdeportivo producido por el fabricante de automóviles franco-italiano Bugatti desde 2002. Por sus prestaciones y su elevado costo (cerca de 1.5 millones de euros), es un vehículo exclusivo.

Sus capacidades se han comprobado en pistas de alta velocidad, en las que se muestra una velocidad máxima de 407,8 km/h, haciendo de este automóvil el más rápido del mundo en su momento. El récord actual lo tiene el SSC Ultimate Aero, con una velocidad máxima de 427,28 km/h. La tracción en las cuatro ruedas y el motor central trasero le da mayor estabilidad y una distribución equilibrada de la potencia.

Respecto al modelo anterior, el 16.4 Veyron sólo presenta algunas modificaciones aerodinámicas con el fin de corregir algunas deficiencias en el manejo a altas velocidades, así como un aumento en la distancia entre ejes en 5 centímetros. La parte posterior también fue arreglada con dos nuevas tomas de aire. El Veyron tiene un precio estimado de 1.800.000 €, sin embargo ya ha dejado de ostentar el récord del auto más costoso del mundo, siendo superado por el Ferrari FXX y el Maybach Exelero.

Es considerado el mejor auto del mundo ya que la compañía Bugatti se dedica a hacer este modelo y no hace otros modelos como otros fabricantes del mundo. La firma tiene planeado producir 300 unidades de este auto.

Recientemente, se han sacado otras versiones de este coche: el Veyron Sang Noir, que se trata del coche prácticamente negro con la tapicería naranja; el Veyron Pur Sang, que es el coche sin pintar, y que cuesta 1.400.000 € aproximadamente,y el Veyron Grand Sport, que es el único que verdaderamente aporta una gran novedad: es descapotable. Se dice de este último que algunas de las reservas que tiene son para clientes que ya tienen un Veyron.

Otra variante es el Bugatti Veyron Fbg par Hermès, el cual fue preparado por la marca Hermés. Contiene una combinación de colores beige y marrón en la parte interior y exterior. Los materiales que se emplearon en el desarrollo del interior del vehículo fueron predominantemente el cuero y el aluminio.

Además, la marca está en proceso de fabricación de una versión más potente del Veyron, llamada Bugatti Veyron GT, el cual ofrece 1350 caballos de potencia y un par máximo de 1380 Nm, que le permiten desarrollar una velocidad máxima de 425 km/h, y acelerar de 0 a 100 km/h en 2,4 segundos.[2] Con estas cifras, nuevamente lograría ostentar el récord del auto más rápido del mundo. La empresa hará las primeras entregas de este auto a partir de marzo del año 2009, antes de descontinuar definitivamente todas las versiones del Veyron y comenzar a fabricar otro coche totalmente nuevo y diferente a partir del año 2012.

Preocupación por 'Storm', un virus con más potencia que 500 superordenadores

El creador del virus controla los ordenadores infectados desde un centro de control (C&C), que puede ordenar un ataque o un envío de spam.
Las compañías de seguridad aseguran que este software malicioso está creando la mayor red de ordenadores esclavizados de la historia.
El virus cambia periódicamente sus métodos de distribución y utiliza la ingeniería social para colarse en el ordenador de sus víctimas.
Storm es un virus que lleva circulando varios meses por Internet. Ha infectado tantos ordenadores recientemente que se se pusieran a trabajr todos juntos tendrían tanto poder de cálculo como las 500 supercomputadoras más potentes del mundo, según afirma el jefe de tecnología antispam de la compañía MessageLabs.

Storm (‘tormenta’ en inglés) es sólo uno de los nombres que le dan las empresas de seguridad a este virus de gusano, detectado por primera vez a principios de 2007. Ha logrado infectar millones de ordenadores y servidores en todo el mundo, consiguiendo una de las redes de PCs esclavos o zombis más grandes que un virus haya tenido nunca, según los expertos.


"Es preocupante que los criminales puedan acceder ese poder de computación"
Para lograr colarse en las máquinas de los internautas Storm ha utilizado todo tipo de métodos, desde la suplantación de la página de la Liga de Fútbol Americano al engaño sirviéndose de YouTube. Sergio de los Santos, del laboratorio de Hispasec, explica que el virus envía mails en inglés que utilizan diversas reclamos más que vulnerabilidades en el software, para hacer que los incautos hagan clic en un enlace, deforma que se descarguen el virus y lo instalen en su ordenador.

Lanza ataques de phishing desde ordenadores con ADSL


Una única máquina quizás no represente mucho, pero todos los infectados juntos representan un gran amenaza, una herramienta que puede utilizarse por ejemplo para lanzar ataques que derriben un sitio por saturación o para enviar spam. "Con sólo dos millones de sus ordenadores 'esclavos' el Storm sería más fuerte que si pusieses a trabajar juntas a las 500 supercomputadoras más potentes del mundo", afirma Matt Sergeant, de MessageLabs. "Da miedo saber que los criminales pueden tener acceso a ese poder de computación".

MessageLabs asegura que cada día están activos dos millones de ordenadores miembros de esta red de esclavos, pero sus estimaciones señalan que se trata sólo del 10% del total de los que Storm tiene a su disposición. Desde Hispasec explican que MessageLabs es una de las compañías con más herramientas para hacer estas mediciones, pero recuerda que la cifra dada es sólo una estimación.

Si confirmaque la de este virus es "una de las mayores redes de este tipo" y que ya "se han visto ataques de denegación de servicio desde ella". El virus está incluso lanzando ataques de phishing en los que la página suplantada -la web de un banco, de un organismo oficial...- "alojados en ordenadores caseros, en la máquina de alguien con su conexión ADSL, algo que dificulta aún más la eliminación del sitio".

Computadora Cuantica

Diseñan nueva computadora que trabajará a la velocidad de la luz

El 25 de septiembre del 2000, el doctor en ciencias Jonathan Dowling, del Jet Propulsion Laboratory de la NASA, informo que en base a un modelo muy moderno de la Mecanica Cuantica, estan diseñando una computadora que realizará sus calculos a la velocidad de la luz...

Dowling y un equipo de científicos de la universidad de gales, descubrieron que pares de particulas de luz ”correlacionadas” pueden actuar como una unidad sencilla, rindiendo con el doble de eficiencia...

Dowling explicó que se deben diseñar fuentes de luz laser que sean usadas para fabricar chips de computadora mas rapidos y mas pequeños, con el proceso llamado litografia optica... Dowling agregó que otros científicos en el mundo estan trabajando con el mismo modelo cuantico, e investigan como correlacionar particulas para diseñar una supercomputadora, así como para lograr manejar la teletransportacion...

sábado, 14 de febrero de 2009

Hasta que finalmente se escapó...


ehmm... y ahora, ¿por dónde vamos?


10 TENDENCIAS TECNOLÓGICAS PARA 2009

El desarrollo tecnológico pone constantemente a las empresas frente a nuevos desafíos estratégicos. El especialista en investigación de mercados Gartner ha identificado diez tendencias que tendrán repercusiones a largo plazo sobre las tecnologías de la información y sobre los modelos de negocio.

Gartner entiende por tecnología estratégica aquella que tiene potencial para impactar de forma significativa en las empresas en los próximos tres años. Entre los factores que indican este potencial se encuentra la capacidad de alterar el panorama tecnológico o corporativo, la necesidad de una fuerte inversión o el riesgo de que sea tarde para adoptar dicha tecnología. Son tecnologías capaces de afectar a los planes, programas e iniciativas a largo plazo de las organizaciones, porque ya son lo bastante maduras como para ser usadas en el mercado o porque suponen una ventaja estratégica si se es de los primeros en adoptarla.

1. Virtualización. Los servidores, el espacio de almacenamiento, las aplicaciones están migrando a la red. Los servidores virtuales ahorran tiempo y recursos. Gartner pronostica que para 2010 la tendencia tendrá una penetración del 40%.

2. Cloud Computing. O computación en nube, consiste en utilizar la red como base para el uso de la tecnología informática. La principal ventaja es la capacidad de adaptación de las aplicaciones y servicios online a las distintas exigencias de los clientes. Amazon, Google, IBM y HP, entre otras, llevan tiempo desarrollando estos sistemas.

3. Ultraslim servers. El desarrollo tecnológico permite minimizar la necesidad de espacio, como en el caso de estos servidores ultrafinos, con mucha capacidad de almacenamiento y pequeño tamaño.

4. Estructuras orientadas a la red. El modelo internet marca a otros modelos de negocio: ágil, interactivo y orientado al servicio. Gartner espera que la continua evolución del enfoque basado en la red permita su uso en un conjunto de soluciones para la empresa cada vez más amplio en los próximos cinco años.

5. Mashups. De algunos pasatiempos de la red terminan surgiendo servicios a tener en cuenta. Algunas aplicaciones web pueden tener este destino. Según la consultora, en 2009 las empresas llevarán algunos de los mashups de la web 2.0 al nivel Enterprise 2.0.

6. Sistemas especializados. Los sistemas heterogéneos se emplean cada vez más en la computación de alto nivel para gestionar grandes cargas de trabajo. Pero estos sistemas podrían alcanzar el mercado de masas.

7. Servicios sociales. Gartner considera que cuanto antes se adopten las plataformas y medios sociales, mejor. El software social, tiene que entrar en consideración, al igual que los mashupsY esto incluye las redes sociales, el trabajo colaborativo, la evaluación y la creación de medios.

8. Comunicación más sencilla. Teléfono, internet y servicios de datos se unen. En los próximos cinco años, el número de operadores podría reducirse al 50%. Las empresas deben diseñar programas detallados sobre cómo gestionar la convergencia de las comunicaciones.

9. Business Intelligence. La gestión del conocimiento es la base para una tomar una buena decisión y mejorar el rendimiento de la empresa. Es un concepto especialmente estratégico pues está relacionado con los trabajadores del conocimiento y directores comerciales.

10. GreenIT. Las empresas necesitan desarrollar planes de eficiencia energética y sostenibilidad. Si se cambia a productos más eficientes se puede minimizar la huella energética de la empresa. Además, las regulaciones apremian.

Extraído de MarketingDirecto.com

¡GUAU! ¡GUAU!... Ehmm... yo no fuí


Conque no se permiten perros ¿eh? ¡WUFF! ¡WUFF!


US$250.000 por un gusano

Redacción BBC Mundo

Microsoft está ofreciendo US$250.000 para capturar al responsable de crear el "asqueroso gusano" informático bautizado como Conficker o Downadup y, así, poder llevarlo ante la justicia.
El virus, que se ha expandido a través de millones de computadoras alrededor del mundo, es una verdadera amenaza que puede provocar el colapso de los sistemas operativos.

El gigante de la computación ha decidido apelar a una recompensa monetaria para capturar al autor del virus, ya que considera su accionar como un ataque criminal.

Lea: Virus informático: millones contagiados

Microsoft señala que los usuarios que conciben este tipo de programas malignos o nocivos tendrán que asumir su responsabilidad y saber que esa compañía no les permitirá continuar con esas actividades.

"Nuestro mensaje es muy claro: cualquiera que haya escrito esto (el código hostil o intrusivo) ha causado un dolor significativo a nuestros clientes y el mensaje que queremos enviar es que haremos todo lo que podamos para ayudar a arrestar a esa persona", dijo George Stathakapulous, el gerente general del Grupo Microsoft Trustworthy Computing.

Meses de tensión

Desde que el programa malicioso fue descubierto en octubre de 2008, se estima que 12 millones de computadoras han sido afectadas en todo el globo.

El gusano Conficker es un programa que se auto-replica y que se aprovecha de aquellos sistemas o computadoras que no han sido protegidas con las últimas versiones de los "parches" de seguridad de Windows.

De acuerdo con la corresponsal de la BBC en Silicon Valley, Maggie Shiels, el virus puede infectar a los ordenadores, con redes débiles de seguridad, que se conecten a internet o a memorias USB para transferir información procedente otro computador.

Lea: Amenaza mundial de virus informático

El gusano se desliza por medio de la redes adivinando los nombres de los usuarios y sus contraseñas.

"Si los usuarios utilizan contraseñas vulnerables, como 12345, el virus las puede descifrar rápidamente", le dijo a la BBC, Graham Culley, consultor de tecnología de la empresa antivirus Sophos.

Por eso, expertos en seguridad digital recomiendan hacer más estrictas las contraseñas por medio de la mezcla de números, signos de puntuación y mayúsculas.

Extraído de BBC Mundo

El reloj de UNIX alcanzará un hito el viernes 13

Hora 1234567890
[ 11/02/2009 - 11:49 CET ]

Todos los sistemas Unix y derivados están provistos de un reloj interno que cuenta el número de segundos desde la medianoche del primero de enero de 1970, UTC (Coordinated Universal Time). El sistema es denominado Unix Time o POSIX-Time. Esta semana, lo segundos transcurridos desde esa fecha llegarán al especial número 1234567890.

Diario Ti: En numerosos países, el evento tendrá lugar el día viernes 13, aunque en Europa ocurrirá pasada medianoche del sábado 14 de febrero.

Con el paso de los años, el tiempo Unix ha sido objeto de diversas definiciones. Según Wikipedia, las primeras versiones del tiempo Unix consistían de un número entero de 32 bits incrementado a una frecuencia de 60 Hz, lo que coincide exactamente con el reloj del sistema en el hardware de los primeros sistemas Unix. Sin embargo, con una frecuencia tan elevada 232 equivale solamente a 2,5 años. Por tal razón, luego se adaptaría un sistema de frecuencia de 1 Hz.

En la mayoría de los sistemas operativos modernos derivados de Unix, incluido Linux, se usó número entero de 64 bits para representar el tiempo Unix. La variante de 32 bits no funcionará adecuadamente después del 19 de enero de 2038. Con la representación de 64 bits, el reloj seguirá marcando la hora, sin inconveniente alguno, durante 2 mil millones de años más.

En ésta página puede verse un reloj que lleva la cuenta regresiva (o en realidad ascendente, como indican los autores del sitio) hasta la hora 1234567890.

Extraído de Diario TI

lunes, 9 de febrero de 2009

Gmail podría rebasar a Hotmail este año

Y a Yahoo en 2011

[ 09/02/2009 - 09:54 CET ]

El servicio de correo electrónico Gmail de Google crece con gran rapidez y podría superar a Hotmail de Microsoft ya durante este año.

Diario Ti: Entre septiembre de 2008 y septiembre de 2008, el número de usuarios de Gmail creció en 39%, de 18,8 millones a 26 millones de usuarios.

En caso de mantenerse la tendencia, Gmail habrá superado en volumen a Hotmail durante 2009.

Esto presupone que Hotmail pierda alrededor del 3% de sus usuarios y que Gmail continúe creciendo a un ritmo de 46%.

También amenaza la posición de Yahoo
En el mismo período que Gmail creció fuertemente, Hotmail perdió usuarios. Según datos correspondientes a Estados Unidos, el número de usuarios de Hotmail cayó en 5% en el período, de 45,7 millones a 43.5 millones. Hotmail fue comprado por Microsoft en diciembre de 1997.

Aunque Yahoo continúa ocupando el primer lugar en el segmento del correo electrónico, con 91,9 millones de usuarios en diciembre de 2008, hay razones para que sienta preocupación ante Google. En efecto, si Gmail continúa creciendo al ritmo actual habrá alcanzado a Yahoo Mail en 2011.

Extraído de Diario TI

Cazas franceses no despegan por virus informático

Enviado por admin el 8. Febrero 2009 - 11:48.

Los aviones no pudieron descargar sus planes de vuelo porque las bases de datos habían sido afectadas por el virus Conficker, que parece haber infectado la red informática interna de la Marina francesa.

A la vista de la situación, los empleados de la Marina fueron finalmente advertidos de que ni siquiera encendieran sus ordenadores.

Los "responsables" han afirmado que no parece tratarse de un ataque informático contra la propia Marina, sino del descuido de alguien que probablemente utilizó un USB infectado.

No tengo palabras. Si además de ignorar olímpicamente los peligros intrínsecos del monocultivo Windows, los "responsables" de la seguridad más delicada que puede existir se escudan en excusas tan pueriles, no me explico por qué no ha empezado aún la Tercera Guerra Mundial...

Extraído de Kriptólis

viernes, 6 de febrero de 2009

Uno de cada tres usuarios de Internet es pirata

Encuesta mundial

[ 06/02/2009 - 11:52 CET ]

Nueva investigación indica que uno de cada tres usuarios de Internet descarga películas y series de televisión ilegalmente.

Diario Ti: La consultora Ovum ha realizado una investigación según la cual uno de cada tres usuarios de Internet a escala mundial descarga material audiovisual ilegal de Internet. Ovum precisa que sólo el 4% de este grupo de usuarios realiza tal actividad de manera regular.


La consultora constató además que dos terceras partes de los consultados no consideran inmoral descargar una película o una serie de televisión ocasionalmente. Este punto de vista se aplica indistintamente a las personas que descargan y a quienes no lo hacen.

La encuesta se concentró exclusivamente en las películas y series de televisión. Por lo tanto, no incluye estadísticas sobre música, juegos ni software descargado ilegalmente por los consultados.

Ovum indica que su encuesta tuvo carácter global, pero no ha publicado el material detallado de su análisis.

Extraído de Diario TI

martes, 3 de febrero de 2009

El nuevo Google Earth 5 explora los fondos marítimos

Esta nueva versión, entre otras novedades, permite bucear por los fondos marinos, al incorporar mapas e imágenes subacuáticas recreadas en 3D, viajar al pasado y explorar Marte.

Google acaba de lanzar simultáneamente en todo el mundo la última actualización de su célebre programa de mapas mundial, Google Earth 5, que viene con varias novedades.

Esta nueva versión incorpora importantes mejoras como explorar los fondos submarinos de mares y océanos de buena parte del planeta, la posibilidad de mostrar imágenes históricas de ciudades y lugares, la opción de grabar viajes para reproducirlos más tarde o compartirlos con otros usuarios, el seguimiento GPS o darnos un paseo por Marte, cuya navegación por el planeta en 3D ahora es posible desde Google Earth.

Sin duda, la novedad más notable es la función Ocean, que ofrece al usuario la posibilidad de bucear en los fondos marinos mediante una recreación en 3D de dicho suelo, visitar históricos naufragios o ver vídeos e información sobre la vida submarina. Todo ello ha sido gracias a la colaboración de entidades entre otras como National Geographic o los archivos del célebre marino Jacques Cousteau.

La opción de ver imágenes históricas nos permitirá ver principalmente el desarrollo de las ciudades. Así, podremos contemplar fotografías actuales de un determinado lugar y mediante esta herramienta de historia retroceder en el tiempo, para observar como era ese mismo sitio hace unos años. Lógicamente, por problemas de disponibilidad no en todas las zonas se podrá retroceder al mismo año. La fotografía más antigua de que dispone corresponde al lago Tahoe y data de 1940. Sin embargo, en España, apenas se podrá regresar hasta el año 2001

Descargar Google Earth 5

lunes, 2 de febrero de 2009

CAEN NOKIA, MICROSOFT Y GOOGLE

Ayer ha sido uno de los días más negros del sector TIC. Sus tres gigantes de la telefonía móvil, el software e Internet han tenido caídas históricas en sus resultados de 2008, arrastrando a las bolsas de todo el mundo. Lo positivo es que ninguno ha registrado números rojos en sus resultados. Lo negativo es que los tres lideran muy fuertemente, llegando en el caso de Google y Microsoft a casi monopolizar, sus respectivos sectores de actividad, que son el sistema nervioso de la sociedad, y en muchos países el motor de la economía.

Todavía antes del verano parecían inmunes a la crisis, a final de año ya anunciaban revisión de resultados a la baja. Nadie se esperaba un batacazo tan enorme, con despidos incluidos. La simple desaceleración de los gigantes, con todavía beneficios astronómicos, ha sido un jarro de agua helada en la economía mundial. Los resultados de Nokia y Microsoft fueron anunciados en medio de la jornada bursátil, provocando caídas en Wall Street, ya tocado por la construcción USA, y en las europeas. Google anunció su caída tras el cierre del jueves en Wall Street, a ver como repercute hoy.


Nokia tuvo en 2008 unas ventas netas de 50.170 millones de euros, solo un 0,7 menos que en 2007. El beneficio operativo cayó hasta el 37,8%, y el beneficio por acción cayó un 42,6%. Aun así, la empresa ha asegurado dividendo. El cuarto trimestre lastró al resto del año, con una caída del resultado operativo del 80,3%, quedándose en 492 millones de euros, de una facturación de 12.662 millones de euros, un 19,4% menos. Lo peor ha sido la reducción del 15% en la venta de sus teléfonos, quedándose en 113,1 millones de unidades a pesar de contar con el mes de mayores ventas por las navidades, y la pérdida de tres puntos en su cuota de mercado mundial, que ahora es del 37%. El director ejecutivo de la empresa dijo que esperaba retomar su cuota de mercado, que están tomando medidas para reducir costes, y anticipó una caída del 10% para la industria mundial del móvil en 2009.

Microsoft anunció que en el último trimestre de 2008 tuvo un beneficio neto de 4.174 millones de dólares USA, un 11,3% menos que lo obtenido en el mismo periodo de 2007, aunque los ingresos han crecido un 2%. El anuncio fue acompañado con el del despido de 5.000 personas, 1.400 de las cuales recogieron sus cosas y salieron por la puerta de su sede central en el mismo día. La medida está acompañada por otras de ahorro, como el presupuesto en viajes. Todas sumarán un ahorro del coste operativo de 1.500 millones de dólares USA en 2009, y de gasto financiero de 900 millones de dólares USA. Un ajuste que significa una disminución de los beneficios de, al menos, la misma cuantía en 2009.

Google ha tenido la primera caída de beneficios de su historia, y ha sido nada menos que un 70% menos de ganancias en el último trimestre de 2008, sobre el mismo periodo de 2007. El beneficio de todo el 2008 aumentó solo un 0,58%. El gigante de Internet ya había tomado la decisión de despedir a parte de su plantilla, y ha ido suprimiendo servicios, aplicaciones y proyectos sin esperar a su posible rentabilidad, en contra de su costumbre.


Fuente: PRNoticias