sábado, 25 de octubre de 2008

Registran cambios drásticos en los patrones de uso de Internet


Xbox Live, YouTube y Skype toman la vanguardia


[ 24/10/2008 - 08:39 CET ]


Estudio global realizado entre 16 millones de abonados a conexión de banda ancha a Internet muestra un panorama renovado en los patrones de uso de servicios en línea.


Diario Ti: La compañía canadiense Sandvine ha realizado una encuesta entre 16 millones de usuarios de banda ancha en 18 países, en cinco continentes. El alcance de la muestra es indicativo de que se trata de datos representativos.


De acuerdo a la encuesta, el intercambio en redes P2P (o uno-a-uno), representa espectivamente el 61% para subida de material a la red y 22% para descargas, al considerarse el tráfico mundial de datos en Internet.



El streaming llega al doble Un dato sorprendente del estudio es que YouTube y otras formas de streaming de vídeo y audio constituyen el 59% de las descargas, que en las horas de mayor tráfico aumenta al 64%.



En encuestas similares, realizadas hace menos de un año, este tipo de trafico solo representaba entre un 25% y 30% del trafico digital mundial.



"Cambian las costumbres" "Nuestras encuestas muestran que las familias usan una mayor parte de su tiempo libre por las tardes, en entretenimiento basado en Internet y en comunicaciones en sitios como YouTube, Xbox Live y Skype", indica Dave Caputo, director de Sandvine.


Caputo agrega que las cifras no solo muestran un dramático cambio en las costumbres de los usuarios de Internet, sino también reflejan una carga cada vez mayor para el ancho de banda disponible.


La navegación es secundaria Lo anterior implica que menos de un 20% de la capacidad disponible es actualmente utilizada para el correo electrónico y la navegación por la red.
Finalmente, el informe indica que las cifras de intercambio P2P se han mantenido estables desde 2002.

Extraído de Diario TI

jueves, 23 de octubre de 2008

Ser espía en línea está al alcance de todos


En la era de Facebook

[ 23/10/2008 - 10:47 CET ]

Los enormes volúmenes de información disponibles en Internet hacen sobremanera fácil tener acceso a información personal de millones de personas. Nuevo programa organiza y recaba toda la información.

Diario Ti: Anteriormente, los hackers de la vieja escuela debían escarbar en la basura del usuario para encontrar información que pudiera revelar claves y códigos para cuentas bancarias y servicios en línea. Sin embargo, gran parte de esta información está disponible en línea, para todos los interesados.


Internet contiene tanta información sobre la mayoría de sus usuarios, que ya no se requiere conocimientos técnicos avanzados para hackear empresas, organizaciones y cuentas personales. En la mayoría de los casos, es posible adivinar los códigos de acceso usando sólo un poco de concentración.

Tal es la opinión vertida por el experto en seguridad informática Roelof Temming, en el marco de una conferencia cerrada de blue-hat organizada recientemente por Microsoft, escribe la publicación DarkReading.com.

Roelof Temming, fundador de la empresa Paterva, ha desarrollado el programa Maltego, que facilita sobremanera juntar información sistemática sobre personas y empresas. El programa recaba toda la información disponible en Internet, como por ejemplo dirección de correo electrónico, blogs, amigos de Facebook, pasatiempos, domicilio, trabajo, cónyuge e hijos. Esta información, aunque sistematizada, no es suficiente para adivinar los códigos de acceso pero en sí puede contener las informaciones que busca el hacker.

Según Temming, la confianza que la gente tiene en otros usuarios de Internet es "aún peor" que toda la información disponible. Al respecto, indica que es extremadamente fácil crear un perfil de Facebook con el nombre de la víctima y así establecer diálogo con los verdaderos amigos y colegas del afectado. De esa forma se tiene acceso directo y en tiempo real a datos confiables. “Sencillamente se trata de preguntarle a los amigos", declaró el experto.

La lapidaria conclusión de Temming es que si alguien desea mantener algo privado, lo mejor es mantenerlo lejos de Internet, del correo electrónico y de las redes sociales.

Extraído de Diario TI

"Piratas crean versión más ligera de Windows"


[ 23/10/2008 - 09:53 CET ]

Piratas están ofreciendo una versión más ligera y rápida de Windows, carente de Internet Explorer y otros componentes. Microsoft, por su parte, indica que es perfectamente posible “adelgazar" a Windows sin infringir las condiciones de la licencia del producto.

Diario Ti: En Internet circula una versión no oficial y manipulada de Windows, denominada MicroXP. Tiene una apariencia idéntica a Windows XP SP3 pero no incluye una serie de componentes como Internet Explorer, cliente FTP y el soporte para varias cuentas de usuario. El resultado es un paquete de 100 MB, que después de una instalación completa no ocupa más de 200 MB en el disco duro.


Paralelamente circula una versión de Windows Vista denominada TinyVista, que estaría en condiciones de ser ejecutada en PC con 256 MB en RAM y velocidad de rango Pentium 3.

Naturalmente, se trata de software intervenido ilegalmente y pirateado, que infringe las condiciones de uso establecidas por Microsoft. Incluso si el usuario es propietario de una copia auténtica del sistema operativo, no está permitido alterar Windows interviniendo su código.

Otro factor a tener en consideración es que al descargar una versión no oficial de Windows de Internet tampoco es seguro que ésta no contenga código maligno. Es decir, al instalar MicroXP o Tiny Vista se podría estar cediendo el control del PC a terceros.

Existe, no obstante, una posibilidad legal de adaptar Windows a las necesidades personales del usuario y eliminar componentes que éste considere innecesarios.

“MicroXP interviene el código binario de Windows XP, lo que no está permitido. Sin embargo, eliminar componentes o agregar componentes nuevos está absolutamente permitido", declaró Rune Zakariassen de Microsoft países nórdicos, a la publicación noruega Digi.

La propia Microsoft ofrece herramientas a empresas, que pueden ser utilizadas para adaptar Windows dentro de las posibilidades legales.

Según Zakariassen, Windows también incorpora soporte para la denominada Quiet Mode Installation, que permite la creación de un fichero que define qué componentes serán instalados.

Extraído de Diario TI

martes, 21 de octubre de 2008

Cualquier semejanza con la realidad, NO ES pura coincidencia

El muchacho termina el bachillerato y no tiene ganas de estudiar nada. Como el padre es un tipo de renombre, lo aprieta:

- ¿Ah? ¿No quieres estudiar flojonazo? Bueno, yo no mantengo vagos, así que vas a trabajar. ¿Estamos?

El padre, que es un hombre con mucho dinero y metido en la política y tiene algunos amigos políticos, dada su larga trayectoria, trata de conseguirle un empleo y habla con uno de sus compañeros de partido que están en este momento en el gabinete, y le dice:

- Rodríguez, ¿Te acordarás de mi hijo? Bueno, pues mira que terminó el bachillerato y no quiere estudiar el muchacho ahorita. Si puedes, necesitaría ya un puesto como para que empiece a trabajar, mientras decide si va a seguir una carrera... El asunto es que haga algo y no vague ni pase en la casa haciendo nada, y así a ver si se compone y hace algo de provecho. ¿Me entiendes?

A los tres días llama Rodríguez:
- Tito, ya está. Asesor del Presidente de la República. Unos 30.000.000 al mes, Belleza Verdad!!!!!!!!!!!! - No, no friegues, Rodríguez ! ¡Es una locura!, Recién empieza. Tiene que comenzar de abajo y, con mucho dinero, se va a poner peor.

A los dos días, de nuevo Rodríguez:
- Tito, ya lo tengo. Le conseguí un cargo de Asistente Privado de un Diputado. El sueldo es más modesto, de 20,000.000 al mes... ¡No, Rodríguez!, ¡Acaba de salir de la prepa! No quiero que la vida se le haga tan fácil de entrada. Quiero que sienta la necesidad de estudiar. ¿Me entiendes?

Al otro día:
- Tito, ahora sí... Jefe de compras en la Delegación de la Secretaría de Comunicaciones, ya está, claro que el sueldo se va muy abajo... Serán 10,000,000 nada más - Pero Rodríguez, ¡por favor!, Consígueme algo más modesto. Va empezando... Algo de unos 2,000.000 ó 3,000.000

- No, eso es imposible, Tito.
- ¿Por qué ?
- Porque esos cargos son por concurso, necesita: currículum, inglés, título Universitario, haber hecho por lo menos una maestría o un post-grado en el extranjero, haber hecho méritos, estar afiliado a un sindicato... Antecedentes... Y por supuesto, experiencia previa. Está dificil.., Tito, está dificil.... Trabajos así no se encuentran fácilmente

Cultivar trabajadores en la propia empresa, clave en la economía global


Una mano de obra cualificada y con mucha movilidad requiere este planteamiento

Los recursos humanos son también cada vez más globales. Encontrar talentos es cada vez más complicado. La cualificación y la movilidad del talento en una economía global plantean nuevos retos a las empresas. Un reciente libro publicado por Harold L. Sirkin, de The Boston Consulting Group, sostiene que en este contexto las empresas debería plantearse cultivar el talento desde la propia empresa. Esto quiere decir no hacer la selección del personal pensando más en su potencial que en sus credenciales. Esta idea de “cultivar” plantea otros dos retos a los directivos de las empresas: saber colocar o disponer su mano de obra (geográfica u funcionalmente) y sabe liderarla. Por Raúl Morales.


Cultivar trabajadores en la propia empresa, clave en la economía global
De todos los recursos por los que se van a competir en los próximos años, sin duda, el más preciado y difícil de conseguir es el talento. En la era de la globalización, el éxito de las empresas dependerá de “ganar” esta carrera. Quienes toman las decisiones en las corporaciones tendrán que pensar con cuidado cómo hacerlo. Esto es lo que sostiene Harold L. Sirkin, uno de los autores del libro “GLOBALITY: Competing with Everyone from Everywhere for Everything”

Según recoge en un artículo publicado por Business Week incluso en China e India, donde abunda la mano de obra, los recursos humanos ya no son lo que eran. Tampoco allí encontrar talentos es una tarea fácil. Mientras las economías en vías de desarrollo siguen creciendo y las economías occidentales envejecen, esta carrera se seguirá intensificando. Ganarla requerirá nuevas estrategias que no siempre coincidirán con los moldes tradicionales.

Sirkin sostiene en su libro que hay que considerar el contexto del talento bajo el prisma de una serie de retos. El primer reto en la era de la globalización, dice, es encontrar gente. El segundo es alinear el talento con el trabajo o la labor que tiene que ser hecha. El tercer reto es la localización, o sea colocar la mano de obra en el lugar y el momento adecuado. El cuarto es retener, evitar rotaciones muy altas y motivar a la gente para que permanezca en la empresa. Finalmente, Sirkin habla de la calidad; de asegurarse de que la gente disponible posee los conocimientos y las destrezas necesarias.

La localización es clave. Con frecuencia, hay trabajo, pero en lugares donde la cualificación de los trabajadores no es suficiente. Este problema es acuciante en Europa del Este, donde millones de trabajadores muy preparados se han movido a zonas o países donde ganan mucho más que en sus países de origen. Las empresas de estos países se ven obligadas, entonces, a hacer dos cosas básicamente: aumentar los sueldos (lo que les hace perder competitividad) o hacer esfuerzos de contratación masiva de trabajadores africanos o de Oriente Medio

La calidad, esencial

Pero el tema de la calidad es para Sirkin lo esencial. Así, los trabajadores que parecen tener las credenciales correctas no siempre tienen la formación o la experiencia adecuada para un trabajo concreto. Un buen ejemplo de esto es el idioma. Hay empresas que contratan a trabajadores muy preparados, pero sin el conocimiento adecuado de la lengua materna de la empresa, lo que les dificulta su desempeño. Piénsese, por ejemplo, en los servicios telefónicos de atención al cliente.

¿Qué pueden hacer los directivos en este contexto? Según Sirkin, tendrían que empezar a pensar en términos de “cultivar” trabajadores. Esto quiere decir que su trabajo termina cuando localizan y contratan a alguien. Pero esto es sólo el principio. Porque para hacer que una contratación sea realmente útil, las empresas han de motivar, formar, educar, de tal modo que esos trabajadores desarrollen las habilidades necesarias, así como el deseo de permanecer en la organización.

El libro pone el ejemplo del banco indio ICICI, el segundo más grande del país. Tiene 42.000 empleados, pero necesita cubrir entre 15.000 y 20.000 nuevos puestos cada año, una cifra difícil de alcanzar si no fuera por la política de recursos humanos que sigue.

Según K. Ramkumar, el jefe de recursos humanos de ICICI, el banco se centra en identificar gente con potenciales, y los forma para “extraer” de ellos lo mejor. Para ello, el ICICI ha creado su propia universidad, donde 2.500 formadores enseñan a los trabajadores online o en nueve instituciones de Management situadas en la geografía del país asiático.

El concepto de empleado “con la habilidad de aprender” significa que la empresa contrata a alguien con potencial (más que con credenciales) a quien se le proporciona la educación y el rodaje ha sido adoptado por las empresas indias más punteras, como el famoso fabricante de coches Tata. El éxito de esta fórmula ha puesto de manifiesto en las economías en desarrollo que esa habilidad para aprender es mucho más importante que las credenciales. Este mismo concepto podría triunfar también en los países desarrollados, pero las empresas en estos países han perdido el potencial de la formación para convertir el aprendizaje en habilidad.

Desplegar a las tropas

Pero no basta con “cultivar” empleados, también hay que saber colocarlos, como hacen los comandantes cuando despliegan a sus soldados. Las empresas líderes en las rápidas economías en desarrollo despliegan habitualmente sus mejores trabajadores de modos muy diferentes a como lo hacen las multinacionales estadounidenses y europeas. Por ejemplo, la también india Wipro ha conseguido una ventaja competitiva gracias a la velocidad con que forma e integra a sus nuevos empleados. Además, mueve a gente de proyecto en proyecto, de tal modo que todos sus recursos están siempre trabajando de la mejor manera posible.

Sirkin considera que, además de “cultivar” y saber colocar, hay que liderar. En esto, las economías en desarrollo también dan una lección a las empresas de las economías occidentales. Uno de los aspectos más importantes de su liderazgo es reconocer que todo está en constante cambio.

Aunque el liderazgo significa muchas cosas, parece claro que el éxito en lo que Sirkin llama el “contexto del talento global” requiere pensar globalmente, o sea tener en cuenta cada país o región donde se hacen o se quieren hacer negocios. Además, es muy importante echar mano de gente “autóctona” para guiar los procesos. Finalmente, es necesario que haya un equilibrio entre los recursos humanos locales y los estándares globales.

Competir con cualquiera y en cualquier parte significa, sostiene este libro, competir por encima de todo por la gente. De lo bien que se gestione este aspecto dependerá que se triunfe o se falle.

Extraído de Tendencias 21

sábado, 18 de octubre de 2008

¿Día de la "Raza"?

Oh my God, Wall Street... not again... oh no!

El nuevo billete de 1 Dólar

Creciente riesgo de politización de las telecomunicaciones


El alarmante crecimiento de la delincuencia al amparo de las TIC amenaza las libertades ciudadanas

La rápida proliferación de nuevos proveedores de servicios y nuevas tecnologías de telecomunicación está potenciando el crecimiento de la delincuencia a niveles alarmantes y conduciendo a algunos gobiernos, como recientemente al británico, a concebir medidas de control de las comunicaciones de los ciudadanos, con el consiguiente revuelo político que suscitan estas medidas. La creciente complejidad de las telecomunicaciones representa un serio problema para los servicios de seguridad, aduanas y otros servicios gubernamentales, al posibilitar al usuario múltiples nombres e identidades virtuales y dificultar su localización. Por César Gutiérrez.


Creciente riesgo de politización de las telecomunicaciones

La intención del gobierno británico de implementar una mega-base de datos con información sobre los teléfonos móviles de toda la población, así como un registro de las fechas y destinatarios no sólo de sus llamadas sino de sus mensajes de texto o emails y de las páginas web que han visitado, ha desatado la polémica, según informa la BBC.

El asunto trasciende las fronteras del Reino Unido no sólo por tratarse del país con mas antigua tradición democrática de nuestro entorno, sino porque las razones que aduce el departamento de Interior para llevar a cabo sus planes están también a la orden del día en los demás países occidentales, especialmente en lo referente a la cuestión de la lucha anti-terrorista.

Armas para la delincuencia

La secretaria de Interior, Jaqui Smith, ha insistido en subrayar –lo hizo recientemente en una charla ante el Institute for Public Policy Research– que ninguna autoridad tendrá jamás acceso al contenido de una llamada telefónica o un email de un ciudadano, pero que datos como las fechas en que se produjeron las comunicaciones y los interlocutores con los que se mantuvieron las mismas deben ser accesibles para los la policía y otros servicios de seguridad e inteligencia.

De otro modo, dice Ms. Smith, sería imposible luchar contra el terrorismo, el crimen organizado, el abuso sexual a menores, el tráfico de drogas, los secuestros y otros gravísimos delitos, a cuyos autores ha beneficiado la revolución de las telecomunicaciones y que actualmente tienen en éstas una de sus principales herramientas.

La policía y los servicios de seguridad llevan tiempo advirtiendo al gobierno de que la creciente complejidad de las telecomunicaciones dificulta su habilidad para acceder a unos datos que son instrumento esencial en la lucha contra múltiples y graves delitos.

Por ello, el gobierno someterá la cuestión a consulta popular a principios del próximo año y, al tiempo que solicita al poder legislativo trabajar en una ley de comunicación que otorgue estos poderes a las autoridades, solicita a la sociedad un debate informado, razonable y sensato sobre la cuestión, y no basado en la mera opinión.

Lavado de cerebro online

Ms. Smith se refiere con ello a las primeras reacciones que ha suscitado la propuesta: la calificación de la misma como “orwelliana” por parte de grupos de la oposición, como también informa un artículo en The Times. Reacciones que por cierto no se limitan sólo a la oposición, ya que incluso Lord Carlile, el experto independiente encargado de coordinar la lucha anti-terrorista, ha declarado: “la cruda idea de que cualquier gobierno, aunque sea benigno, ponga las manos sobre toda esta información y la almacene en un depósito electrónico, es horrorosa si no existen estrictos controles sobre ella”.

Los servicios de seguridad insisten en que sin el acceso a este tipo de datos –que proporcionaron evidencias clave en estos casos– hubiera sido imposible condenar a Ian Huntley, el asesino de Soham, a los terroristas bomba del 21 de Julio, o a Nicky Reilly.

El de este último es un inquietante caso de lavado de cerebro “online”. Nicky Reilly, de 22 años, converso al Islam desde su adolescencia y con importantes deficiencias psíquicas, fue al parecer reclutado por radicales islamistas y conducido desde las salas de chat a páginas con explicaciones de fabricación de bombas. En el chat se discutieron también los potenciales objetivos.

Reilly construyó una bomba llena de miles de clavos e intentó detonarla en el restaurante Giraffe, en Exeter, el pasado mayo. Afortunadamente, y debido a la ineptitud del joven, el dispositivo saltó antes de tiempo, y solamente él resultó herido.

Terroristas invisibles

Aunque este atentado se frustrase, el caso da una idea del preocupante problema al que se enfrentan las autoridades. Se trata de un caso prácticamente “indetectable”, ya que la ciudad de Plymouth, donde vivía, no está asociada en modo alguno al activismo extremista, y de no ser por su ineptitud las consecuencias del atentado habrían sido catastróficas.

En este y otros delitos –así como para las averiguaciones sobre personas desaparecidas– los datos de telefonía, email y tráfico de internet fueron claves para la actuación de los servicios de seguridad. Sólo el último año, 54.000 intervenciones en este sentido fueron aprobadas a agentes de la policía metropolitana que lo solicitaron.

Y es que, efectivamente, el acceso a los datos ya es posible actualmente, bajo requerimiento, y hubo en general 519.260 de dichos requerimientos en total el año pasado, sumados los de los servicios de inteligencia, la policía y los demás cuerpos de seguridad.

Identidades múltiples

Es, según fuentes policiales, la rápida proliferación de nuevos proveedores de servicios y nuevas tecnologías de telecomunicación lo que presenta un serio problema para los servicios de seguridad, aduanas y otros servicios gubernamentales, al posibilitar al usuario multiples nombres e identidades virtuales y dificultar su localización.

Según estas fuentes, los datos de comunicaciones son un importante elemento de evidencia de acusación en el 95% de los casos de crimen serio. “No podríamos siquiera empezar a resolver ningún caso de secuestro en este país sin acceso a esos datos.”

Convendría tener en cuenta estos hechos y ofrecer al menos a Ms. Smith el debate racional y sensato que pide en torno a la cuestión. Y también tener en cuenta la, según la secretaria de Interior, única alternativa posible a los nuevos poderes: “una expansión masiva de la vigilancia y otros métodos intrusivos de rastreo”. Una alternativa un tanto... orwelliana.

Extraído de Tendencias 21

Treinta millones de ordenadores infectados

Falsos antivirus

[ 17/10/2008 - 12:38 CET ]

La distribución de más de siete mil variantes de este tipo de adware, que comenzó hace casi un año, sigue consiguiendo hacer picar a millones de internautas que pasan de media tres días para conseguir desinfectar sus equipos.

Diario Ti: En realidad, se trata de una acción para conseguir datos bancarios y estafar dinero, ya que tras el aviso de infección lleva al usuario a páginas de venta de falsos antivirus


A un precio medio de 49,95 €, y según los datos que mantiene Panda , “calculamos que los autores de este malware pueden estar ganando más de 10.000.000 de € mensuales, ya que el 3% de los infectados realmente procede a la compra".

No es nuevo; no es original, pero lo cierto es que el número de las infecciones causadas por los falsos antivirus sigue creciendo a grandes velocidades. Sus autores no buscan otra cosa que el beneficio económico, y lo están consiguiendo. “Según los datos de infecciones que recibimos en PandaLabs" –comenta Luis Corrons, director técnico de PandaLabs-, “hay más de treinta millones de internautas infectados por esta nueva oleada de falsos antivirus. Alrededor de un 3% de éstos acceden a dar sus datos personales y a comprar un producto para desinfectar su ordenador que nunca reciben. A una media de 49,95 €, podemos cifrar los beneficios de sus autores en más de diez millones de € mensuales".

El mecanismo de todas las variantes es el mismo: avisan al usuario que su PC está infectado, y comienzan a aparecer ventanas emergentes, fondos de escritorio y salvapantallas que realmente abruman al internauta y no le dejan hacer prácticamente nada. Estas prácticas buscan, sobre todo, asustarle, utilizando por ejemplo cucarachas que se comen el escritorio hasta que el usuario no tiene más remedio que hacer clic en el botón de compra, o bien simulan fallos de Windows con el típico pantallazo azul.

Los internautas más avezados se dan cuenta de que realmente se trata de una infección y buscan la solución. “La peor parte de estos falsos antivirus es que son muy difíciles de desinfectar. Los usuarios más avanzados pueden intentar hacerlo manualmente, técnica realmente difícil si no se sabe mucho de informática. En general, los usuarios tardan unos tres días en eliminar por completo esta amenaza", añade Luis Corrons. “Por eso recomendamos que si su antivirus no lo ha detectado, se instalen uno de nueva generación, especialmente preparados para detectar, desinfectar y eliminar todo rastro de esta amenaza".

Extraído de Diario TI

Samsung prepara módulos de memoria de 16GB.

Los nuevos módulos de memoria que Samsung comenzara a producir están realizados mediante un proceso de 50nm que permite multiplicar por dos la capacidad actual de los módulos de memoria DDR3 a la vez que se reduce el consumo hasta en un 40%. De este modo comenzaremos a ver no solo módulos de hasta 16GB, que sin duda quedaran por ahora para equipos servidor de alto rendimiento, sino también módulos más normales de 4GB, por ejemplo, más baratos, ya que se necesitaran menos chips de memoria para producirlos, mas fríos, ya que consumirán menos y hasta un 60% más rápidos gracias a mejoras en el bus de memoria del propio modulo.

Samsung también espera que estos nuevos avances nos proporcionen los primeros módulos SODIMM DDR3 de 4GB por modulo, ideal para la nueva plataforma Centrino 2, que potenciara el rendimiento de portátiles de gama alta multiplicando por dos la máxima capacidad de memoria actual.

Todos estos avances se comenzaran a disfrutar durante 2009 ya que los primeros chips con esta nueva tecnología se comenzaran a producir a finales de este mismo año.


Samsung prepara módulos de memoria de 16GB.

Nvidia prepara una GX2 para Noviembre.

Y fieles a su política de confundir al personal nos las presentaran como novedades incontestables cuando simplemente serán modelos con un poco menos de consumo y seguramente algunos Mhz más. Pero lo que más se busca es contentar a los partners que han visto descender bruscamente sus ventas con un producto que, aparte de no ser más barato, costará menos fabricar y por tanto, dejara más beneficios.

Lo que realmente me sorprende es que con estos dos nuevos modelos, 270 y 290 respectivamente, estarán acompañados de una nueva GX2. No sé qué magia habrán obrado en Nvidia pero una tarjeta de estas características podría superar más que fácilmente los 300-350W de consumo haciendo que la Radeon 4870X2 parezca una hermanita de la caridad a su lado.

Lo que está claro es que esta tarjeta usara dos PCBs como todas las soluciones GX2 de Nvidia hasta la fecha. Para mí y para muchos este tipo de soluciones no son las adecuadas pero esperaremos a ver su precio y sus prestaciones para juzgar si la Radeon 4870X2 puede ver peligrar su reinado.

jueves, 16 de octubre de 2008

Virtualización de hardware

Publicado por Javier el 20 de Septiembre de 2008

La virtualización de hardware es una técnica utilizada desde la década del 60, pero recientemente ha tomado nuevo impulso, en virtud de los últimos avances de los procesadores de Intel y AMD y también de la evolución de varias herramientas de software, muchas de ellas libres.

En este artículo analizaremos brevemente los conceptos principales relacionados con la virtualización de hardware, incluyendo las diversas alternativas existentes.

¿Qué es la virtualización?

El objetivo de la virtualización es la simulación de varias computadoras lógicas, a partir de una computadora real. Para ello existen varias técnicas, que van desde la virtualización del hardware (CPU, memoria y dispositivos) hasta la separación de los procesos utilizando un único kernel.

La virtualización nos permite, entre otras cosas:

* Alojar varios servidores en una única computadora física. Esto nos permite optimizar el uso de recursos (CPU, memoria, almacenamiento).
* Simplificar la realización de copias de respaldo (backup) y su restablecimiento. Todo un servidor virtual puede ser un único archivo.
* Migrar fácilmente servidores entre distintas computadoras.
* Incrementar la seguridad, utilizando servidores aislados para tareas diferentes.

A través de la virtualización podemos, por ejemplo, utilizar servidores virtuales para cada servicio que deseemos implementar en nuestra red, independientemente del hardware disponible. Estos servidores pueden ser administrados por personas distintas. Más adelante, al aumentar las necesidades, pueden añadirse nuevos servidores físicos y migrar los servidores virtuales existentes con un costo mínimo.

Algunos conceptos básicos

En los años ‘60, IBM llamaba al sistema operativo “supervisor“. Por esto, a aquellos con capacidad de correr otros sistemas operativos sobre ellos los llamó “hypervisors“, terminología que persiste en la actualidad. Al hypervisor también se lo denomina “sistema operativo host“.

Las “máquinas virtuales” (como la Java Virtual Machine o el BCPL de los ‘60) proveen una CPU virtual. Su objetivo no es virtualizar todo el hardware, sino solamente permitir la ejecución de código portable en distintas arquitecturas (esto se conoce como “virtualización a nivel de aplicación”). Un intento similar consiste en la traducción de instrucciones al nivel de la CPU, tal como lo realizan los procesadores Crusoe.

Tipos de virtualización

A continuación, analizaremos las técnicas más comunes de virtualización y algunas de sus implementaciones. (Comenzaremos por las menos interesantes, dejando lo mejor para el final.)

Virtualización de hardware

Este es el tipo de virtualización más complejo de lograr. Consiste en emular, mediante máquinas virtuales, los componentes de hardware. De esta manera el sistema operativo no se ejecuta sobre el hardware real sino sobre el virtual.

La gran ventaja de este enfoque es que pueden emularse distintas plataformas de hardware (por ejemplo, x86 sobre SPARC). Su principal desventaja es el alto costo de traducción de cada una de las operaciones de las máquinas virtuales a la máquina real, pudiendo obtenerse un rendimiento de 100 a 1000 veces menor.

Virtualización a nivel del Sistema Operativo

Este es el otro extremo de la virtualización. En este esquema no se virtualiza el hardware y se ejecuta una única instancia del sistema operativo (kernel). Los distintos procesos perteneciente a cada servidor virtual se ejecutan aislados del resto.

La ventaja de este enfoque es la separación de los procesos de usuario prácticamente sin pérdida en el rendimiento, pero al compartir todos los servidores virtuales el mismo kernel no pueden obtenerse el resto de las ventajas de la virtualización.

Paravirtualización (paravirtualization)

La paravirtualización consiste en ejecutar sistemas operativos guests sobre otro sistema operativo que actúa como hipervisor (host). Los guests tienen que comunicarse con el hypervisor para lograr la virtualización.

Las ventajas de este enfoque son un muy buen rendimiento y la posibilidad de ejecutar distintos sistemas operativos como guests. Se obtienen, además, todas las ventajas de la virtualización enunciadas anteriormente. Su desventaja es que los sistemas operativos guests deben ser modificados para funcionar en este esquema.

Virtualización completa (full virtualization)

La virtualización completa es similar a la paravirtualización pero no requiere que los sistemas operativos guest colaboren con el hypervisor. En plataformas como la x86 existen algunos inconvenientes para lograr la virtualización completa, que son solucionados con las últimas tecnologías propuestas por AMD e Intel.

Este método tiene todas las ventajas de la paravirtualización, con el añadido de que no es necesaria ninguna modificación a los guests. La única restricción es que estos últimos deben soportar la arquitectura de hardware utilizada.

Avances en el hardware

Recientemente, tanto AMD como Intel han incorporado en sus CPUs tecnologías que simplifican y optimizan notablemente los esquemas de virtualización completa y paravirtualización.

En el caso de Intel se denomina VT (por “virtualization technology“), y está disponible en las líneas Vpro, Xeon e Itanium 2.

AMD primero bautizó a su tecnología de virtualización como Pacifica y luego pasó a llamarse AMD-V. La misma está disponible en todos los procesadores con socket AM2 (inclusive en los modelos más económicos). Esta tecnología parece ser aún más potente que la de Intel.

Una nota a los usuarios de Linux: Para identificar si su CPU posee alguna tecnología de virtualización, busque el flag “xvm” (Intel) o el flag “svm” (AMD) en /proc/cpuinfo.

¿Qué sigue?

Esta es sólo una breve introducción técnica con el objetivo de resumir las principales características de los distintos tipos de virtualización de hardware.

Ahora mismo, me voy a jugar un poco con mi solución favorita: KVM; una solución de virtualización completa para Linux que, utilizando una versión modificada de QEMU, permite correr casi cualquier sistema operativo, a una velocidad increible en comparación con otras soluciones de virtualización.

Referencias

Este artículo está basado, principalmente, en el artículo Virtual Linux de M. Tim Jones (en inglés).

Una excelente fuente de enlaces es la página de Wikipedia sobre virtualización (en inglés).

Extraído de Blog de Javier Smaldone

martes, 14 de octubre de 2008

La seguridad de las redes inalámbricas podría ser ilusoria


Logran hackear WPA y WPA2

[ 14/10/2008 - 08:44 CET ]

La compañía rusa Elcomsoft ha desarrollado un programa que puede vulnerar las claves de WPA y WPA2 a una velocidad 100 veces superior a la actual usando tarjetas gráficas de Nvidia para los pesados cálculos.

Diario Ti: La empresa rusa Elcomsoft es conocida por sus aplicaciones de vulneración de contraseñas, que ayudan al usuario a recuperarlas en caso que éste las haya “olvidado".


Los programas de Elcomsoft usan el antiguo y laborioso método de fuerza bruta, que prueba todas las combinaciones imaginables de cifras y letras hasta encontrar la combinación correcta.

En esta oportunidad, Elcomsoft ha lanzado un nuevo programa que logra vulnerar las claves WPA y WPA2, usadas para proteger el tráfico de datos en redes inalámbricas.

No es una novedad que las claves de cifrado pueden ser vulneradas con el método de fuerza bruta. Sin embargo, son alternativas poco hacederas debido a que requieren demasiado tiempo. Normalmente se necesitarían varios años para vulnerar todas las combinaciones posibles. Sin embargo, el programa de Elcomsoft está diseñado para aprovechar la capacidad de cálculo de las tarjetas gráficas de Nvidia.

Al disponerse de 2 tarjetas GTX 280, las claves pueden ser vulneradas 100 veces más rápido que el caso es al usar sólo el ordenador. Incluso con un laptop provisto de una tarjeta NVIDIA GeForce 8800M o 9800M es posible vulnerar los códigos con una velocidad 10 a 15 veces mayor que para el caso de una CPU.

El software de Elcomsoft brinda además la posibilidad de vincular varios cientos de computadoras en red, pudiendo así usar la capacidad de cálculo conjunta para vulnerar los códigos.

De esa forma es potencialmente posible usar el programa en una situación de ataque, aunque la empresa asegura que sólo están diseñados para “probar" la seguridad de las redes corporativas.

Por lo demás, WPA y WPA2 son consideradas alternativas mucho más seguras que su predecesor, WEP, que es más fácil de vulnerar. El nuevo programa de Elcomsoft demuestra que quizás es procedente para las empresas incorporar elementos adicionales de seguridad, como por ejemplo VPN, para estar seguros.

El nuevo software ruso también es una demostración patente de la enorme capacidad de cálculo que existe en las actuales tarjetas gráficas. Es una capacidad de cálculo que ahora solamente se usa en juegos.

Se espera que un número cada vez mayor de programas comenzará a aprovechar la enorme capacidad de las tarjetas gráficas para ejecutar cálculos avanzados.
Paralelamente, Intel y AMD trabajan con el fin de fusionar la CPU y GPU (procesador gráfico) en una unidad, para así hacer posible a todos los programas usar la capacidad extra de cálculo.

Imagen: Mesh Dynamics

Extraído de Diario TI

lunes, 13 de octubre de 2008

Los responsables de la red "Storm" se toman un descanso


¿La calma que precede a la tormenta?

[ 13/10/2008 - 07:56 CET ]

Los responsables de Storm han suspendido las actividades de la temida red de zombies con un mensaje automatizado que indica “No estamos en casa, váyase".

Diario Ti: Normalmente, esta red de bot, o red zombi, muestra un alto nivel de actividad, pero estos días ha reducido su actividad prácticamente a cero.


La red Storm controla niveles prodigiosos de capacidad de cálculo mediante una red PC zombis incorporados a ella mediante troyanos y otro tipo de sabotaje.

Según la compañía de seguridad informática CSIS, la red Storm ha mostrado desde mediados de septiembre un nivel mínimo de actividad. En tal sentido, no se ha registrado distribución de spam, ataques DdoS, ni tampoco actividades de tipo Fast Flux (secuestro de dominios). Paralelamente, la red completa de bots se reduce cada día más.

Según CSIS, al hacer una llamada TCP a los servidores de la red, este responde automáticamente con la siguiente notificación: "Go away, we´re not home" (retírese, no estamos en casa).

La compañía de seguridad informática sugiere no alegrarse antes de tiempo, acotando que a veces está tranquilo antes de la tormenta, y que es posible que el grupo de sabotaje Storm trabaje en el desarrollo de herramientas nuevas y más potentes de sabotaje de la comunidad de Internet.

Fuente: CSIS.

Extraído de Diario TI

Se implementa la primera red protegida con criptografía cuántica


Concluyen en éxito más de 4 años de investigación en el proyecto SECOQC

La primera red comercial de telecomunicación protegida con tecnologías de criptografía cuántica ha sido presentada en una demostración por responsables del proyecto SECOQC. Fundamentado en los principios de la física cuántica, el sistema desarrollado hace impenetrable el intercambio de datos a cualquier tipo de escucha o intromisión no autorizada. Por César Gutiérrez.


Se implementa la primera red protegida con criptografía cuántica

El proyecto SECOQC (Desarrollo de una Red Global para la Comunicación Segura Basada en la Criptografía Cuántica) de la UE, en el que han trabajado 41 socios de 12 países europeos durante cuatro años y medio, ha concluido en un rotundo éxito: el pasado 8 de octubre se llevó a cabo una demostración en la que por primera vez una red comercial de telecomunicación ha transportado datos protegidos mediante encriptación cuántica, según se informa en un comunicado.

La seguridad en la transmisión de datos a través de una red protegida mediante criptografía cuántica está garantizada por las leyes de la física, concretamente por el principio de incertidumbre de Heissemberg, que define la imposibilidad de observar un sistema sin provocar perturbaciones en el mismo.

Fotones delatores

Básicamente la técnica consiste en el envío de haces de fotones (partículas de luz), la medición de éstas por los agentes legitimados para ello y el subsiguiente post-procesamiento de los datos. Cualquier “fisgón” que intervenga en el proceso dejará inmediatamente en él rastros indelebles, que se traducen en errores detectados por los usuarios legítimos.

Durante la demostración, cada vez que un intruso intentaba husmear una conversación o intercambio de datos los fotones se perturbaban y los detectores de los nodos indicaban un aumento en el rango de error permitido, señalando el ataque, según informa un artículo de la BBC.

La red cuántico-criptográfica implementada para la demostración (a la que están conectadas cinco filiales de Siemens, uno de los socios involucrados en el proyecto) consta de seis nodos y ocho enlaces intermedios, separados por distancias de entre 6 y 82 Km. Siete de esos enlaces operan con estándares comerciales de telecomunicación por fibra óptica, y el restante utiliza un sistema de óptica de espacio libre, a lo largo de una línea de visión entre dos telescopios.

Desventajas superadas

Los enlaces llevan integradas un total de seis tecnologías diferentes de encriptación cuántica, cuyas características técnicas detalladas pueden consultarse en la web del proyecto.

Los dispositivos criptográfico-cuánticos situados en los nodos son sofisticados productos de alto rendimiento, fruto de la investigación y desarrollo llevados a cabo por el proyecto, e interactúan estrechamente con los interfaces estándar en los que están implementados.

Anteriormente, los desarrollos en criptografía cuántica se habían centrado en conexiones punto a punto, entre un solo emisor y un receptor, ofreciendo soluciones actualmente disponibles y que pueden resultar apropiadas para algunas aplicaciones, por ejemplo la conexión de dos centros de datos en un área metropolitana.

Pero en otros escenarios las soluciones criptográfico-cuánticas punto a punto son inadecuadas, dadas las desventajas de este tipo de conexión: la pérdida de fotones en la fibra óptica limita la máxima distancia entre emisor y receptor. También está limitada la máxima velocidad de generación de claves, que es relativamente baja. Además, la comunicación puede ser interrumpida simplemente cortando la fibra o interfiriendo en la línea de visión (en caso de transmisión en espacio libre).

La variedad de trayectorias alternativas entre emisor y receptor hace que esas desventajas estén superadas en una red, donde además más de dos socios pueden obtener claves simultáneamente para el encriptamiento de la comunicación confidecial.

Redireccionamiento cuántico

Esta robusted de la red también fue puesta de manifiesto en la demostración. Cuando un enlace cuántico se vino abajo las conexiones fueron redirigidas automáticamente a través de otros nodos, lo que aseguró a los usuarios una comunicación sin interrupciones.

El Dr. Hannes Huebel, de la Universidad de Viena, explicó la enorme importancia que una red robusta tiene para el desarrollo de sistemas cuántico-criptográficos. “Estamos constantemente en contacto” –declaró– “con bancos y compañías de seguros, y ellos dicen que casi prefieren perder una considerable cantidad de dinero a que el sistema se caiga durante dos horas, porque esto último podría proporcionar mayor daño al banco.”

Por otro lado, el sistema desarrollado proporciona seguridad a largo plazo y se adecua a las más recientes disposiciones legales sobre protección de la información, de modo que él éxito de este proyecto abre a los operadores de telecomunicaciones la posibilidad de desarrollar nuevos servicios y productos basados en la criptografía cuántica.


Sábado 11 Octubre 2008
César Gutiérrez

Extraído de Tendencias 21

jueves, 9 de octubre de 2008

miércoles, 8 de octubre de 2008

¿Dónde está la “tecla al azar"?

[ 08/10/2008 - 08:10 CET ]

Presentan lista de top 10 de preguntas absurdas para el departamento de informática.

Diario Ti: Los departamentos de soporte informático de las empresas son continuamente bombardeados por preguntas más o menos desorientadas del tipo “¿dónde está la tecla al azar?" o curiosas como “¿cómo bloqueo el correo electrónico de mi jefe?".


Por otra parte, los empleados de soporte TI están acostumbrados a recibir consultas que parten de la base que dominan cualquier tema que involucre el uso de dispositivos electrónicos o incluso mecánicos.

Ante esta situación, la consultora Robert Half Technology ha realizado una encuesta entre directores de TI de una serie de grandes empresas, a quienes se les consultó lo siguiente: “¿cuál es la pregunta más misteriosa o menos tradicional que han recibido sus empleados de soporte?". Según los directores encuestados, la fantasía o candidez parece no tener límites entre el empleado promedio.

Esta es la lista de preguntas premiadas:

- ¿Porqué mi ratón inalámbrico no está conectado al PC?
- Mi laptop fue arrollado por un coche. ¿Qué hago ahora?
- ¿Puede trasladar las teclas de mi teclado de forma que estén en orden alfabético?
- ¿Cómo hago para leer mi correo electrónico?
- El sistema indica que tengo que presionar una tecla al azar. ¿Dónde está esa tecla?
- Hay restos de galletas en la unidad de CD ROM.
- ¿Puede construirme un robot?
- ¿Cómo hago para bloquear el correo electrónico de mi jefe?
- ¿Puede Usted instalar televisión por cable en mi ordenador?
- No tengo ganas de recibir correo electrónico los viernes.

Los empleados de las secciones de TI de las empresas también están familiarizados con que el resto de sus colegas creen que ellos tienen una solución para todo. Esta es la lista de las preguntas menos serias, que no necesariamente se relacionan con su trabajo.

- ¿Tiene la posibilidad de instalar un equipo estéreo en mi coche?
- ¿Sabe dónde puedo encontrar hielo seco?
- ¿Cuánto tiempo toma cocinar una patata en un horno microondas?
- El ascensor no funciona.
- ¿Puede usted reparar mi motocicleta?

La investigación fue realizada por la agencia de empleos Robert Half Technology y se basa en encuestar realizadas entre 1400 directores de informática.

Fuente: Robert Half Technology

Extraído de Diario TI

La tecnología VoIP llega al móvil y baja los precios




Reuters

BOSTON, EEUU (Reuters) - El coste de las llamadas móviles baja gracias a un aumento en el número de opciones para utilizar servicios de llamar por Internet en los teléfonos móviles como una alternativa a los tradicionales contratos de telefonía.
(Publicidad)

Nokia es uno de los mayores fabricantes de dispositivos con procesadores Wi-Fi. Algunos de los teléfonos de alta gama están equipados con esta tecnología inalámbrico de corto alcance, como el iPhone de Apple y algunos modelos de la BlackBerry de Research in Motion.

El móvil de Google, que será lanzado próximamente al mercado con servicios telefónicos de HTC y T-Mobile, también cuenta con un procesador Wi-Fi.

Para Mark Laris, un ingeniero nuclear con residencia en Dallas pero que viaja por todo el mundo debido a su consultora, esta tecnología le ahorra miles de dólares en llamadas internacionales.

Los chips Wi-Fi y la tecnología de Voz sobre Protocolo de Internet (VoIP) le permiten realizar la mayoría de sus llamadas de trabajo y personales a un precio mínimo al efectuarlas a través de la web.

"Siempre hago llamadas VoIP", dijo, agregando que la calidad de las comunicaciones es tan buena como en los servicios tradicionales.

Laris accede a estos servicios mediante un Nokia que dispone de una conexión similar a la que un portátil utiliza para conectarse a Internet en un cibercafé.

Los nuevos teléfonos son capaces de operar solo en Wi-Fi, ni siquiera necesitan utilizar al operador, y cuando no se está en una zona con Wi-Fi, llaman al contestador de tu operador Wi-Fi.

La ventaja de estos sistemas con respecto a la primer generación de telefonía VoIP es que ya no se requiere de un ordenador sino que basta con el teléfono.

"Lo bueno es que no tengo que llevar mi ordenador e iniciar Skype para hablar con ellos (mi familia). Simplemente enciendo mi teléfono", afirmó Ivan Domaniewicz, un piloto comercial, refiriéndose al programa más conocido de llamadas y mensajería a través de Internet.

Extraído de Yahoo Noticias

La onda milimétrica bate records de velocidad inalámbrica

Se consiguen velocidades de 20 Gb por segundo

Investigadores de Battelle han superado las dificultades habituales de la utilización de la onda milimétrica y han reducido los altos costes que caracterizan su implementación, cosiguiendo velocidades inalámbricas capaces de transportar grandes archivos y vídeo de alta calidad.
Por César Gutierrez.


La onda milimétrica bate records de velocidad inalámbrica

Componentes de telecomunicación avanzados y no comercializados aún, desarrollados en los laboratorios de investigación la empresa Bettelle, han permitido desarrollar una tecnología inalámbrica capaz de medirse en condiciones de igualdad con las altas velocidades alcanzadas por la fibra óptica, según informa Technology Review.

Los 20 Gb por segundo alcanzados en pruebas realizadas por dicha compañía suponen una capacidad suficiente para transportar, sin cables, vídeo de alta calidad no necesariamente comprimido de un ordenador o una consola a un proyector, grandes archivos a lo largo de los campus universitarios donde los resultados han sido testeados y la fundamentada idea de que en un próximo futuro puedan implementarse sobre dicha tecnología, con extrema rapidez, redes de comunicación que solventen o atenúen situaciones de emergencia o desastre.

Alta velocidad

De la complejidad, altos costes y otras dificultades inherentes a la onda milimétrica ya informó Tendencias21 en un anterior artículo donde se daba cuenta tanto de las dificultades atmosféricas que en forma de lluvia y otras precipitaciones pueden dificultar la transmisión de datos a través de las mismas más allá de una limitada distancia, como de los avances realizados para solventar dichas dificultades por ingenieros de la Universidad de Kansas en colaboración con investigadores de importantes compañías de telecomunicaciones.

“A cambio –se aclaraba allí en referencia a las dificultades implemtación de tecnologías basadas en la onda milimétrica–, ofrecen como ventaja su capacidad para la transmisión de datos a velocidades del orden de gigabites por segundo, de ahí su potencial para los servicios metropolitanos de alta velocidad y su interés para las nuevas generaciones de redes de telefonía móvil.”

Ahora, cuando dada la creciente demanda de tecnología inalámbrica emerge y queda subrayado cualquier avance que la ataña, el equipo de ingenieros e investigadores de Battelle anuncia haber superado la excesiva complejidad del proceso de codificación-decodificación habitual en las implementaciones de onda milimétrica y haber aumentado en un factor de 10 el rendimiento que ha venido resultando de su habitual sistemática.

Rayos láser

La modulación de un patrón de interferencia entre dos rayos láser de baja frecuencia cuya combinación da al parecer como resultado una señal de 100 gigahertz parece ser la clave –el paso de la excesiva fluctuación a la estabilidad y de la complejidad a la simpleza–, según explica Richard Ridgway, uno de los responsables de la compañía, de la confianza y estabilidad que ofrece el resulado de esta implementación frente a investigaciones anteriores que en los últimos años han llevado a cabo en el mismo campo ces[ntros de investigación como el MIT o compañías como Intel.

Precisamente el director del Laboratorio de Tecnología de las Comunicaciones en Intel, Alan Crouch, es uno de los expertos en hacer notar el fuerte interés industrial en las posibilidades del espectro de onda milimétrica y en destacar la importancia de las investigaciones y desarrollos de Batelle en este sentido.

Queda para un futuro no demasiado cercano la salida al mercado de dispositivos que aprovechen y funcionen basándose en esas posibilidades, y el mismo Ridgway no es demasiado optimista en lo que se refiere al corto plazo aunque confía el desarrollo y comercialización de aquéllos a unos pocos y futuros avances de ingeniería.

Frecuencias libres

La frecuencia de longitud de onda milimétria del espectro analámbrico, a pesar de los altos costes y la complejidad del equipamiento que hasta el momento ha requerido para traducirse en soluciones comercializables, ha demostrado en fase de investigación, en muy diversos ámbitos, una gran capacidad para la transmisión de datos a altas velocidades.

Las antenas punto-a-punto implementadas por los ingenieros de Battelle son el último y más reciente avance de investigación y desarrollo en un rango de frecuencias que –lejos de aquellas entre 2,4 y 5,0 gigahertz en que se mueven las redes celular y WiFi– operan en una región de entre 60 a 100 gigahertz que –cabe señalar más allá de los números– está en gran parte libre de licencias y abierta a todo tipo de uso.


miércoles 08 Octubre 2008
César Gutiérrez

Extraído de Tendencias 21

martes, 7 de octubre de 2008

Para este verano, reemplazamos el bidón de agua

El nuevo celular de Nokia para los que chatean conduciendo...

Presentan las cinco razones que habrían retrasado el despegue de Windows Vista


[ 07/10/2008 - 13:11 CET ]

La publicación ZDNet ha considerado las razones que explicarían porqué Windows Vista no ha tenido el éxito que Microsoft hubiera esperado.

Diario Ti: Microsoft ha realizado una serie de campañas publicitarias con el fin de dar un impulso definitivo a Windows Vista (Gates y Seinfeld, Mojave Project). Aún así, parece ser como si estas iniciativas no han tenido el impacto esperado en las ventas del producto.


La publicación ZDNet ha elaborado una lista con lo que a su juicio son las cinco razones principales de que Vista aún no logra despegar.

1. La campaña de Apple "I am a Mac" logró potenciar las ventas de Macintosh, quitando importantes cuotas al mercado del PC y, por consiguiente, a Microsoft. ZDNet observa que la campaña "I am a PC" de Microsoft fue lanzada demasiado tarde y por lo tanto no logró inclinar la balanza a favor de Vista.

2. Windows XP es un sistema operativo demasiado consolidado. Cada día los fabricantes de hardware lanzan nuevos modelos, especialmente de PC portátiles, que necesitan un sistema operativo que consuma poca corriente eléctrica y recursos del sistema. En tal sentido, XP es una alternativa mejora a Vista.

3. Vista tiene demasiado código. Vista tiene más líneas de código (50 millones) que XP, con sus 35 millones (aprox. 40 millones después de tres Service Packs). Esto retrasa la ejecución de Vista, opina ZDNet.

4. No era la intención lanzar Vista. Una de las razones de que Microsoft abandonara su esquema de nombrar sus sistemas operativos con el año de lanzamiento (Windows 95, Windows 98, Windows 2000) fue allanar el camino al software bajo demanda o suscripción. Esta alternativa aún no se ha consolidado, aunque Microsoft no la descarta.

XP fue, de hecho, parte de la estrategia .Net de Microsoft, cuyos contenidos Microsoft aún no logra transmitir al usuario promedio.

5. Baja compatibilidad de Windows Vista con software y conectores de terceros. SP 1 ha corregido gran parte de esta situación, que en rigor no es responsabilidad exclusiva de Microsoft.

Cuando un producto recibe comentarios mayoritariamente negativos inmediatamente después de su lanzamiento es difícil corregir la impresión inicial posteriormente, concluye ZD Net en su análisis.

Fuente: ZDnet

Extraído de Diario TI

AMD se dividirá en dos


por : Juan Ranchal: 07 Oct 2008, 10:35

La compañía ha indicado a los medios de comunicación que hoy martes hará “un anuncio importante”. Fuentes de la industria confirman que se trata del rumoreado split, por lo que AMD se dividirá en dos compañías: una de diseño y desarrollo de chips y otra de fabricación.

La operación según Bloomberg sería de 8.400 millones de dólares. La nueva empresa de fabricación gestionaría la planta de Alemania y otra que se prevé construir en Nueva York. “Mubadala Development Company” de Abu Dhabi, tendría un papel fundamental con la inyección económica de 6.000 millones de dólares para la ampliación de las fábricas y la reducción de deuda. Además abonará 314 millones de dólares adicionales para duplicar su actual participación en AMD llegando al 19%.

La operación es compleja y de gran profundidad estratégica pero eliminará gran parte de la deuda que ha limitado la competitividad de AMD frente a Intel tras la adquisición de ATI en 2006.

Se rumorea que Héctor Ruiz, ex CEO de AMD podría ser el responsable de la nueva compañía de fabricación.

Extraído de The Inquirer

lunes, 6 de octubre de 2008

Linux cumple 17 años





Publicado por Picajoso



October 5, 2008

EL 5 de octubre de 1991 Linus Torvalds anunciaba en la lista comp.os.minix la disponibilidad de la versión 0.02 de su kernel, que aún no tenía nombre oficial y que Linus calificaba de ser “incluso usable”. El principio de la leyenda. Algunos atribuyen su fecha de nacimiento real antes, cuando Linus comentó públicamente sus intenciones en ese foro de discusión, pero esta fecha marcaba el inicio de la evolución de un SO mítico.

El kernel 0.02 de Linux fue el primero realmente usable de Linux, y de hecho no hubo anuncio oficial del núcleo con versión 0.01. Los ficheros fuente ni siquiera eran ejecutables, y simplemente contenían la estructura rudimentaria del núcleo del sistema. Ese 5 de octubre fue una fecha mucho más “oficial”, puesto que Linus anunció la disponibilidad de su kernel 0.02, que ya era capaz de ejecutar un bash (el GNU Bourne Again Shell, un intérprete de comandos) y gcc (el compilador de C de GNU).

“Como ya comenté hace un mes, estoy trabajando en una versión gratuita de un sistema similar a Minix para ordenadores AT-386. Por fin ha alcanzado el estado en el que es incluso usable (aunque puede que no lo sea según lo que quieras), y estoy dispuesto a ofrecer el código fuente del mismo para que se distribuya de forma más amplia. Es únicamente la versión 0.02… pero he ejecutado bash, gcc, gnu-make, gnu-sed, compress, etc. en él“.

Todo un momentazo de la historia de Linux y del sistema operativo GNU/Linux que se generaría a partir de ese pequeño proyecto de Linus Torvalds. Hoy el sistema operativo es considerado como una de las grandes alternativas a Windows o Mac OS X en todos los escenarios, y es que muchas cosas han pasado en estos últimos 17 años. ¡Felicidades!

Extraído de Muy Linux

Los empleados son los principales responsables de los problemas de seguridad


Ignoran reglas y alteran medidas de seguridad


[ 06/10/2008 - 07:59 CET ]

Cuando las empresas pierden o exponen información confidencial se debe, en la mayoría de los casos, a que los propios empleados han descuidado o alterado la configuración de seguridad predeterminada en sus estaciones de trabajo.

Diario Ti: Hoy en día, la mayoría de las empresas disponen de claras reglas sobre el uso y administración de sus recursos informáticos con el fin de incrementar la seguridad. Sin embargo, tal medida suele ser insuficiente debido a que los empleados no la cumplen.
Según investigación, las normativas y reglamentos internos de las empresas sobre seguridad informática son ignorados por el 20% de los usuarios.

En efecto, 1 de cada 5 trabajadores encuestados dice haber alterado la configuración de seguridad de su estación de trabajo. Las razones van desde la intención de usar programas que el departamento de TI no ha aprobado, o con el fin de visitar sitios Web “inadecuados".

En la misma investigación se consulta a directores de informática, quienes concluyen que en el 70% de los casos en que las empresas habían perdido datos, la razón había sido precisamente que uno de los empleados había alterado las preferencias de seguridad estándar.

“Esta encuesta incluye algunas sorpresas. Incluso en 2008 es posible sorprenderse sobre descuidos tan elementales de seguridad", comentó John N. Stewart, director de seguridad de Cisco.

“La seguridad informática requiere un cambio de actitud en toda la empresa. Ya no se trata de una tarea limitada al departamento de informática".

Por ejemplo, 1 de 3 empleados consultados admitió que abandonaba su PC sin desconectar la sesión o dejar el sistema en modo de suspensión. El 66% indicó que también usa su estación de trabajo para descargar música, usar banca en línea, o comprar. El 44% admitió haber permitido a terceros usar su PC del trabajo o smartphone para fines no laborales.

La investigación fue realizada por Cisco, basada en entrevistas realizadas entre 1000 directores de informática y 1000 empleados en Inglaterra y Estados Unidos.

Fuente: Cisco.

Extraído de Diario TI

sábado, 4 de octubre de 2008

Diez claves para optimizar las conexiones WiFi


28 Abril 2008

Edimax Technology ayuda al usuario a optimizar todas sus soluciones de conectividad como evitar interferencias, situar el router en un sitio abierto o mantener el hardware actualizado.
Las redes wireless de acceso a Internet se han convertido en una realidad cotidiana en la mayoría de hogares y oficinas. No obstante, el usuario descubre en muchas ocasiones que el servicio contratado no es todo lo veloz o efectivo que debería. Esto se debe a múltiples factores, que sin embargo pueden evitarse con unas sencillas claves de instalación y consejos de ubicación pensados para optimizar la calidad de la señal o la recepción de los dispositivos inalámbricos.

Edimax Technology propone diez pasos que pueden aplicarse a todos sus routers y soluciones de red con el fin de optimizar nuestra conexión inalámbrica:

1. Centro de gravedad. La señal wireless de un router es de 360 grados. Se expande en todas direcciones, reduciéndose a medida que aumenta la distancia o se encuentran obstáculos. Así, lo importante es encontrar el centro de gravedad de la sala para situar el punto de acceso WiFi. Es el mismo donde podríamos una radio si quisiéramos escucharla desde todos los puntos.

2. Situar el router en un sitio abierto, lejos del suelo, de ventanas y muros gruesos; nunca dentro de un mueble o rodeado de artefactos metálicos, ya que estos afectan considerablemente a la señal.

3. Evitar interferencias. El router WiFi tiene tres clases de enemigos: los que retienen la señal (paredes, suelo, muebles...); aquéllos que la modifican (principalmente objetos metálicos); y los que la ‘vampirizan’ (compiten por la señal de nuestro router, y son todos los aparatos inalámbricos que utilicen la frecuencia de 2,4 GHz, como microondas o teléfonos inalámbricos).

4. La antena. Cuando hay muchos objetos o interferencias en la sala, podemos probar a utilizar una antena de router direccional en lugar de multidireccional. Esto permite orientarla mejor para aprovechar la conexión.

5. Repetidores. En casos complicados se puede instalar un repetidor -también conocido como amplificador o expansor- para aumentar el radio de cobertura. Se sitúa a mitad de camino entre el router y donde se quiere extender la señal.

6. Mantener el hardware actualizado. Hay que asegurarse de que todos los drivers del router, el firmware de la tarjeta de red y los de PC y Access Point están actualizados. Basta con visitar la web del fabricante y descargar nuevas versiones de software.

7. Cuidado con los dispositivos Bluetooth. Hay que inhabilitar las conexiones Bluetooth del teléfono, el ratón u otros dispositivos como el mando de la consola Wii mientras no se utilicen, o trasladarlos a otra habitación.

8. Sintonizar el canal apropiado. Al igual que las emisoras de radio, las antenas WiFi emiten por varios canales. Es bueno probarlos todos hasta encontrar el que tiene menos interferencias (en España suelen ser los canales 1 y 13) y dirigir la tarjeta hacia ese canal.

9. El último estándar 802.11. Un 'router' que opera con el estándar 802.11g ofrece cuatro veces más potencia (ancho de banda) que si se basa en 802.11b. La tarjeta del PC debe funcionar con el mismo estándar, así que en caso de actualización afecta a ambos dispositivos.

10. Productos del mismo fabricante. Aunque se pueden utilizar router, tarjetas y Access Point distintos, normalmente se mejora el alcance si son de la misma marca. Ubicar correctamente el router para evitar interferencias, actualizar el firmware o sintonizar el canal apropiado son simples pasos que, sin mucho esfuerzo ni inversión, mejorarán enormemente el alcance de nuestra red wireless, unos consejos que Edimax recomienda para disfrutar sin trabas de la navegación por la Red.

Extraído de Techweek

miércoles, 1 de octubre de 2008

El "must have" de toda mujer

Úff... ¡qué calor!

¿Se equivoca Stallman cuando califica al cloud computing como una estupidez?


por : Juan Ranchal: 01 Oct 2008, 12:28

Richard Stallman, fundador de la Free Software Foundation y del proyecto GNU, y una de las figuras más relevantes del movimiento por el software libre no deja indiferente a nadie, y en unas últimas declaraciones califica a la “computación en nube” como estúpida, solicitando a los usuarios un rechazo categórico a este tipo de uso informático.

Stallman insiste que Cloud Computing -una de las más importantes nuevas tendencias en la industria tecnológica-, es “una estupidez; mucho más que una estupidez, es una gigantesca campaña de marketing”, dijo en una entrevista con .

Stallman considera que la dependencia del software basado en Web representa un grave riesgo para la libertad e intimidad. El presidente de la FSF, la considera como una campaña de los proveedores de software para hacerse con el control de los usuarios y aconseja a los usuarios que muestren su rechazo.

“Es tan malo como utilizar un programa propietario. Si haces tu propia informática, en tu propio equipo tienes una libertad frente al software. Si utilizas un programa propietario en un servidor web estás indefenso. Quedas en mano de quien desarrolló el software”, explica.

Desde ars technica consideran reales las características negativas de la computación en nube aunque creen “miope” y equivocado la opinión radical de Stallman de que estos aspectos no se puedan solventar, observando que debería abordar el reto que supone adaptarse a los movimientos de la industria, que como este, suponen una tendencia inequívoca de por dónde irán los tiros los próximos años.

No son los únicos “entusiastas “del código abierto que no comparten “la histeria y el derrotismo” de Stallman, destacando el editor de medios Tomm O,Reilly, que considera que el Open Source está preparado para afrontar estos desafíos y ya ha comenzado a explorar soluciones experimentales, poniendo por caso la infraestructura abierta online.gnome.org para hacer la integración web sin comprometer la libertad del software, o el proyecto de Mozilla Weave synchronization service para Firefox proporcionando una plataforma segura y libre de almacenamiento web.

Otra cuestión que merece la pena considerar si se implanta masivamente “Cloud Computing”, es la reducción de la dependencia de software propietario, empezando por el monopolio que mantiene Microsoft, algo que no debería pasar por alto Stallman, según el redactor, así como el potencial de oportunidades que crearán este tipo de servicios Web.

Extraído de The Inquirer