miércoles, 12 de diciembre de 2012

LuminAR, la bombilla que crea un interfaz de realidad aumentada

12 de diciembre de 2012 | 06:22 CET

¿Y si pudieras convertir tu escritorio en una superficie interactiva de realidad aumentada simplemente cambiando la bombilla del flexo? Esto es lo que nos proponen precisamente Natan Linder, Pattie Maes y Rony Kubat, tres investigadores del Departamento de Interfaces fluidos del MIT.

EL nombre del proyecto es LuminAR, y consiste en una lámpara tipo flexo estándar que aúna un pequeño ordenador con conexión inalámbrica, un proyector Pico, y una cámara. Todo ese conglomerado de dispositivos permiten proyectar un interfaz interactivo sobre una mesa de trabajo.

Aunque la primera versión del dispositivo es una lámpara completa y motorizada, el equipo del MIT ya ha logrado su objetivo final, que es reunir proyector, cámara y ordenador en un único dispositivo que se sujeta y alimenta mediante base de tornillo Edison E27 de 27 milímetros o, como dirían nuestras abuelas, una bombilla de rosca gorda de toda la vida.

La idea del MIT es que LuminAR sea un dispositivo independiente, programable y tan fácil de instalar como una bombilla, permitiendo así su instalación en, por ejemplo, tiendas o salas de exposiciones como complemento independiente de realidad aumentada con fines comerciales.

El proyecto aún está en fase de pulir el prototipo final y abaratar sus costes para una eventual comercialización. Esperamos con auténtica impaciencia porque el proyecto tiene unas posibilidades fenomenales.



Vía | Phys.org

Artículo original en Xataka

El modelo chino con procesador quadcore que viene dispuesto a competir con los grandes

Publicado el 12 de diciembre de 2012 por Jaime Domenech   

La compañía china Oppo acaba de dar a conocer su dispositivo Find 5, un teléfono que viene dispuesto a quitar cuota de mercado al Samsung Galaxy S3 y el iPhone de Apple.

Para competir contra ellos ofrece una pantalla de 5 pulgadas con resolución Full HD de 1080p, y por encima de ello sobresale un procesador Snapdragon S4 Pro PAQ8064 de cuatro núcleos acompañado de 2GB RAM.

En el sistema operativo Oppo ha confiado en Android 4.1.2 Jelly Bean y en la conectividad vemos que viene con compatibilidad con tecnología NFC.

Además, aunque las cámaras suelen ser uno de los puntos débiles de los móviles chinos, el Find 5 apuesta por una de 13mp que viene con HDR para fotos y video, siendo el primer dispositivo de su categoría en portar esa tecnología.

Por otra parte, Oppo también ha cuidado el apartado del audio, y el dispositivo apuesta por la tecnología conocida como Dirac HD.

Seguramente la parte donde se encuentra el mayor inconveniente para este smartphone premium es en el almacenamiento, ya que solo viene con 16GB de almacenamiento interno y no trae la habitual ranura microSD.

En cuanto al precio, el modelo Find 5 se venderá desde 499 dólares en Estados Unidos y todavía no se sabe si llegará a mercados como España y Latinoamérica.

¿Os gustaría verlo comercializado en vuestros países?

Artículo original en The Enquirer

Revelan gran brecha en Big Data: menos del 1% de la información digital es analizada

Y menos de un 20% está protegida

[ 12/12/2012 - 09:46 EST ]

El nuevo estudio de IDC Digital Universe revela que únicamente se está aprovechando una parte insignificante del potencial de Big Data, a pesar del aumento imparable de datos útiles.

Diario Ti: EMC Corporation ha hecho públicos los resultados del último estudio Digital Universe, elaborado por IDC y patrocinado por EMC, “Big Data, Bigger Digital Shadows and Biggest Growth in the Far East". El informe revela que, a pesar de la expansión sin precedentes que experimenta el universo digital, debido a los volúmenes masivos de datos generados diariamente por personas y dispositivos, solamente el 0,5% de la información mundial está siendo analizada.


La proliferación de dispositivos como los PCs y los smartphones, el incremento del acceso a Internet en los mercados emergentes y el aumento de datos generados por máquinas, como cámaras de videovigilancia o detectores inteligentes, ha contribuido a duplicar el universo digital en los últimos años, hasta alcanzar los 2,8 ZB. Sin embargo, la consultora predice que para 2020 el universo digital habrá logrado situarse en 40 ZB, una cifra que supera las previsiones que se habían hecho anteriormente en un 14%.

En términos de volumen, 40 ZB es equivalente a:

● 40 ZB es un número 57 veces superior a la cantidad de granos de arena de todas las playas de nuestro planeta. Hay 700.500.000.000.000.000.000 granos de arena en las playas de la Tierra (setecientos trillones quinientos mil billones).
● Si pudiéramos guardar este volumen de 40 ZB en el formato Blue-ray actual, el peso de estos discos (sin embalaje) sería el mismo que 424 portaaviones Nimitz-class.
● En 2020, la cifra de 40 ZB se corresponderá con 5.247 GB por persona.

El informe de este año es el primero en que IDC ha podido determinar donde se origina la información en el universo digital o donde es capturada o consumida por primera vez, poniendo de manifiesto algunos cambios muy significativos durante este proceso. En su sexta edición, el estudio –que mide y prevé la cantidad de información digital creada y copiada anualmente- revela importantes hallazgos sobre los “Big Data Gap", que son: la diferencia entre el volumen de información con un valor oculto y el valor que actualmente está siendo aprovechado, el nivel de protección requerido frente al que se aplica a los datos; y por último, las implicaciones geográficas de los datos a escala global.

Aspectos destacados del estudio

Rápida expansión del universo digital: IDC prevé que el universo digital alcance 40 ZB en 2020, una cifra que supera todas las previsiones anteriores.
○ El universo digital se duplicará cada dos años entre hoy y 2020.
○ Aproximadamente unos 5.247 GB de datos corresponderán a cada hombre, mujer o niño que viva en el planeta en 2020.
○ El principal factor que influye en la expansión del universo digital es el crecimiento de la información generada por máquinas, que se incrementa desde el 11% registrado en 2005 a más del 40% en 2020.

Se pierden enormes volúmenes de información valiosa: Las promesas y expectativas en Big Data se basan en la extracción de valor de ingentes volúmenes de información sin explotar. Sin embargo, la mayoría de estos nuevos datos no están ni clasificados ni estructurados, lo que indica que es muy poco lo que se sabe acerca de ellos.

○ En 2012, el 23% (643 exabytes) del universo digital sería aprovechable para Big Data si fuese clasificado y analizado. Sin embargo, actualmente sólo el 3% de los datos potencialmente útiles está clasificado, y es inferior aún el porcentaje que está siendo analizado.
○ El volumen de datos útiles se expande al ritmo que crece el universo digital. En 2020, el 33% del universo digital (más de 13.000 exabytes) tendrá valor Big Data si es clasificado y analizado.

La mayoría de la información digital no está protegida: El volumen de datos que requiere ser protegido aumenta a un ritmo aún más rápido que el propio universo digital.
○ Menos de la tercera parte del universo digital necesitaba protección en 2010, una proporción que se espera que supere el 40% en 2020.
○ En 2012, mientras el 35% de la información requiere algún tipo de protección, menos del 20% del total está amparada por estas medidas.
○ El nivel de protección varía según las regiones, siendo los países emergentes los que presentan unos niveles más bajos de protección.
○ Los desafíos como las amenazas avanzadas, la carencia de perfiles de seguridad y la escasa adopción de buenas prácticas por parte de usuarios y organizaciones, continuarán agravando el problema.

El cambio de roles geográfico está a la vuelta de la esquina: Aunque el universo digital es un fenómeno reciente y asociado al mundo desarrollado, la sombra proyectada por la población de los mercados emergentes comienza a ser cada vez más alargada.
○ Los países emergentes representaban el 23% del universo digital en el año 2010, un porcentaje que se ha elevado al 36% en 2012.
○ En 2020, IDC predice que el 62% del universo digital se originará en estos mercados emergentes.
○ El desglose actual del universo digital: Estados Unidos – 32%, Europa Occidental – 19%, China – 13%, India – 4%, y el resto del mundo – 32%.
○ En 2020, se prevé que China sola genere un 22% del volumen de datos global.

Otros datos clave:
● Como Cloud Computing juega un rol cada vez más importante en la gestión de Big Data, se prevé un incremento en el número de servidores, que se multiplicará por 10. Asimismo, el volumen de información gestionada directamente por los centros de datos corporativos se multiplicará por 14.
● El tipo de datos almacenados en la nube experimentará una transformación radical durante los próximos años. En 2020, IDC predice que el 46,7% de la información almacenada en la nube va a estar relacionada con el entretenimiento, es decir, que no serán datos corporativos. Los datos de videovigilancia y médicos, así como los creados por ordenadores, teléfonos y electrónica de consumo representarán el resto.
● La cantidad de información almacenada en el universo digital sobre usuarios individuales superará con creces a la que ellos mismos han creado.
● Europa Occidental es actualmente la región del mundo que más está invirtiendo en la gestión del universo digital, con un gasto de 2,49 dólares por GB. Estados Unidos ostenta el segundo lugar con 1,77 dólares por GB, seguido de China, con 1,31 dólares y la India con 0,87 dólares por GB.
● A medida que la infraestructura del universo digital esté cada vez más interconectada, la información no residirá en la misma región donde va a ser consumida, lo cual tampoco será necesario. En el año 2020, IDC estima que cerca del 40% de los datos estarán “tocados" por cloud computing, es decir, que en algún momento entre su creación y su consumo, habrán sido almacenados o procesados en la nube, pública o privada.

Jeremy Burton, Executive Vice President, Product Operations and Marketing, EMC Corporation
“A medida que el volumen y la complejidad del aluvión de datos corporativos aumenta desde todos los ángulos, los departamentos de TI tienen que elegir: o bien sucumben a una parálisis originada por el exceso de información o dan los pasos necesarios para sacar el máximo partido del tremendo potencial que tienen estos torrentes de información. El estudio de este año descubre la enorme oportunidad que existe para aquellos negocios que no sólo han identificado los potenciales beneficios del universo digital, sino que reconocen la importancia de navegar por él con el equilibrio adecuado de tecnología, las mejores prácticas en seguridad y los perfiles necesarios en TI. En EMC estamos posicionados de manera inmejorable para ayudar a los clientes a gestionar, proteger y desbloquear este valor de los datos que cambia las reglas del juego y se traduce directamente en ventajas competitivas".


Artículo original en Diario TI

Cluster de 25 GPU descifra contraseñas de 8 caracteres en 5.5 horas

miércoles, 12 de diciembre de 2012
14:06:00

Recientemente, en una conferencia en Oslo, se demostró que es posible romper contraseñas de 8 caracteres en un período de 5 horas y media [PDF].

En una conferencia realizada en Noruega, se presentó un cluster de 25 AMD Radeon con GPU donde mediante la herramienta Hashcat pudo observarse una capacidad de cómputo de 348.000 millones de intentos por segundo sobre contraseñas con hashing NTLM y 63.000 millones de pruebas sobre claves con hashing mediante SHA-1. NTLM es un protocolo de Microsoft que provee autenticación, integridad y seguridad a los usuarios. Asimismo, SHA-1 es una función criptográfica de hashing utilizada en gran medida por aplicaciones y diferentes protocolos.

¿Cómo se realiza el descifrado de la contraseña?

Existen dos mecanismos conocidos que son utilizados para quebrar una contraseña. El primero de ellos es mediante ataques de fuerza bruta y el otro es mediante ataques de diccionario. El ataque de fuerza bruta consiste en probar posibles contraseñas realizando el proceso de hashing sobre cada intento y comparando contra el hashing de referencia (corresponde a la clave que se vulnera). En el caso de ataques de diccionario, se cuenta con tablas previamente computadas con claves comunes o frecuentemente utilizadas. Este tipo de ataque suele ser más rápido ya que no es necesario computar el hashing en cada uno de los intentos y apela a que en muchos casos los usuarios utilizan contraseñas simples.

Debido a que la tecnología de hoy en día es capaz de elevar las tasas de pruebas a valores muy altos, los especialistas en criptografía han diseñado algoritmos de hashing conocidos como “lentos”. De esta forma el tiempo del proceso de hashing es mayor y dificulta los ataques a los ciberdelincuentes en los ataques de fuerza bruta. No obstante, el cómputo extra necesario para los algoritmos de hashing “lentos” es casi imperceptible para los usuarios que hagan uso de los mismos. Sin embargo, mediante el sistema antes descripto, se demostró que tienen un gran impacto sobre las técnicas de de fuerza bruta disminuyendo en gran medida el rendimiento. Específicamente, el sistema posee un rendimiento de 77 millones de intentos por segundo sobre md5crypt, 364.000 sobre sha512crypt y apenas 71.000 intentos por segundo sobre bcrypt.

Fuente: ESET

Artículo original en Segu-Info

miércoles, 28 de noviembre de 2012

Windows Blue, el siguiente Windows

28 de noviembre, 2012, 16:52

Un mes, 40 millones de copias vendidas, críticas muy variadas y el mayor cambio que hemos visto probablemente desde Windows 95, así es Windows 8. No hemos terminado sin embargo de digerir el nuevo lanzamiento y ya empezamos a tener las primeras pistas sobre lo que vendrá después: Windows Blue.

Windows Blue es, o parece ser, el intento de Microsoft por acoplarse a los ciclos de producción anuales que otras compañías como Google o Apple han empezado a estandarizar. Una influencia que viene en gran parte del terreno de los sistemas operativos móviles, con iOS y Android como brillantes ejemplos, pero que también hemos podido ver por ejemplo entre OS X Lion y OS X Mountain Lion. Esta nueva versión de Windows vendría acompañada de un cambio de interfaz y Blue sería únicamente el nombre en clave o designación interna de Microsoft, no el nombre del producto en sí.

¿Para cuando? Según apuntan varios rumores para mediados de 2013 podríamos tenerlo entre nosotros. El nombre de Blue lleva ya un tiempo dando vueltas pero no hace referencia, como muchos creen, a la siguiente gran versión de Windows sino a algo que tiene mucho más sentido: actualizaciones frecuentes para mantener el sistema siempre al día.

Poniéndolo en perspectiva, tiene sentido por dos frentes. Por un lado es la misma estrategia que se ha seguido con los Service Packs durante todos estos años, por otro, no es ni mucho menos la primera vez que la compañía hace algo parecido. Así, las nuevas versiones de Windows pasarían a llamarse Windows 8.1 (o Windows 8.5), algo que recuerda a la codificación que se usaba con Windows 3.1 por ejemplo ,pero también a lo que ocurrió con Windows Phone 7.5, la puesta al día de Windows Phone 7 para añadir funcionalidades clave.

En resumen, y de cara al usuario final, Windows Blue implica actualizaciones más frecuentes, precios mucho más reducidos de actualización, cambios más importantes de cara al usuario final, no como en los Service Packs y sobre todo mayor flexibilidad para adaptarse en un mercado cada vez más competitivo.

Por otro lado, encaja sospechosamente con los rumores de que Windows 8 se lanzó sin estar completamente pulido y acabado del todo, y con aquellos que auguran una baja adopción por parte del sector empresarial. Una actualización para solucionar problemas, eliminar bugs, mejorar la estabilidad y adecuarla para ese segmento empresarial tendría cierto sentido.

Finalmente, si Windows Blue es cierto, y yo pondría la mano a que lo es, no deberíamos tardar mucho en tener más noticias, especialmente si el lanzamiento está previsto para 2013.

Artículo original en Alt1040

miércoles, 31 de octubre de 2012

Intel desarrolla un procesador de 48 núcleos para smartphones y tablets

El equipo de desarroll de Intel trabaja en un procesador de 48 núcleos para smartphones y tablets, aunque podrían pasar entre cinco y diez años antes de que llegue al mercado de consumo.

"Si vamos a tener esta tecnología de aquí a cinco o diez años, finalmente podremos hacer cosas que a día de hoy consumen mucho poder de procesamiento", explica Patrick Moorhead, analista de Moor Insights and Strategy. "Esto realmente podría abrir nuestro concepto de lo que es un ordenador... El teléfono sería lo suficientemente inteligente como para no ser sólo un ordenador, sino para ser mi ordenador".

Los investigadores de Intel en el laboratorio de la compañía en Barcelona han creado un prototipo de un chip de 48 núcleos para smartphones y tablets.

Enric Herrero, un científico de investigación en los laboratorios de Intel en Barcelona, España, dijo que hasta el momento han construido un prototipo de un chip de 48 núcleos diseñado para ejecutar distintas aplicaciones en diferentes núcleos en un teléfono inteligente o tableta.

Hoy en día, algunos dispositivos móviles pequeños usan chips multi-core. Sin embargo, esos núcleos múltiples CPU pueden ser de doble o cuádruple núcleo trabajan con pocos GPU. Tener un chip de 48 núcleos en un dispositivo móvil pequeño abriría todo un nuevo mundo de posibilidades.

En este punto, sin embargo, los investigadores están trabajando para ver exactamente cómo utilizar mejor tantos núcleos en un solo dispositivo.

"Normalmente un procesador con un núcleo hace los trabajos uno tras otro", explica Herrero. "Con múltiples núcleos, se puede dividir el trabajo entre ellos".

Este experto explica que con muchos núcleos, alguien podría, por ejemplo, cifrar un correo electrónico mientras que está trabajando al mismo tiempo en otras aplicaciones que consuman mucha potencia. Se podría hacer hoy, pero las operaciones podrían ralentizarse, ya que tendrían que compartir recursos.

Tanausu Ramírez, otro investigador de Intel que trabaja en el chip de 48 núcleos, también señaló que si alguien estuviera, por ejemplo, viendo un vídeo de alta definición, un chip de 48 núcleos sería capaz de utilizar diferentes núcleos para decodificar vídeo en diferentes marcos al mismo tiempo, dando al usuario una experiencia de video más fluida. Ramírez también explica que muchos núcleos pueden funcionar en paralelo en diferentes proyectos y consumen menos energía.

Justin Rattner, CTO de Intel, piensa que un chip de 48 núcleos para pequeños dispositivos móviles podría llegar al mercado "mucho antes" de los 10 años que pronostican los investigadores.

"Creo que el deseo de ir a las interfaces más naturales para hacer la interacción mucho más parecida a la humana es realmente lo que va a impulsar estas necesidades informáticas", explica. "Tener un gran número de núcleos para generar niveles de rendimiento muy altos es la forma más eficiente de utilizar la energía para lograr esos niveles de rendimiento".

Artículo original en IDG.es

Microsoft ha vendido 4 millones de Windows 8 - pero está lejos de la meta

Le faltan 396 millones

[ 31/10/2012 - 13:04 EST ]

En el marco de la conferencia Build, iniciada el martes 30 noviembre, el CEO de Microsoft, Steve Ballmer, anunció que hasta ahora se han alcanzado los 4 millones de instalaciones de Windows 8.

Diario Ti: Aunque se trata de un número impresionante, Microsoft está lejos de alcanzar la meta que el propio Ballmer se ha fijado. En efecto, Ballmer declaró en septiembre pasado que 400 millones de unidades serían operadas con Windows 8 dentro de un año. En otras palabras, la empresa tiene 10 meses para vender 396 millones de licencias.


Durante su discurso en la conferencia, Ballmer expresó satisfacción con el recibimiento que hasta ahora ha tenido Windows 8, manifestando además su sorpresa por el entusiasmo que ha generado el producto.

Sin embargo, para la empresa podría ser difícil alcanzar los 400 millones de licencias vendidas antes de septiembre de 2013. En tal sentido, cabe recordar que Windows 7 alcanzó 175 millones de descargas durante el año siguiente a su lanzamiento. Para alcanzar tal meta, Microsoft depende de Nokia y los demás fabricantes de smartphones operados con Windows Phone 8 consigan un buen nivel de ventas.

Ilustración: Steve Ballmer, CEO de Microsoft, durante la presentación de Windows 8 (Fotografía: Microsoft).

Artículo original en DiarioTI

Crece el robo de identidad por Internet

miércoles, 31 de octubre de 2012
11:14:00

La irrupción de internet con las páginas web y las redes sociales permiten hoy crear perfiles y utilizarlos de acuerdo a los intereses de cada uno. Pueden usarse para la comunicación con amigos, conocidos, hacer negocios y hasta ayudan a los políticos en sus campañas y propagandas de gobierno.

Pero, como contrapartida, este mundo virtual es también una herramienta para cometer ilícitos, ataques anónimos, y para hacerse pasar por otro, ya sea como una simple chanza o con malas intenciones.

Los especialistas aseguran que el robo de identidad en las redes y la creación de perfiles falsos, es un peligroso y preocupante fenómeno en crecimiento.

Estas cuentas apócrifas empezaron siendo un problema del que eran víctimas en sus comienzos, casi solamente los famosos. Y, quienes más lo padecieron y padecen son Luisana Lopilato, Susana Giménez y Marcelo Tinelli. Gran cantidad de cuentas que no son oficiales aparecen con estos nombres en la web. Pero ahora ya se avanza también sobre la gente común.

"El delito de robo de identidad virtual no está identificado como tal, por eso genera que crezca", explica Sebastián Bortnik, gerente de educación y servicios de Eset Latinoamérica, empresa que brinda softwares de seguridad.

El especialista señala que por un lado están quienes cometen estos ilícitos con fines redituables.

"Son quienes podemos catalogar como delincuentes informáticos. Usan el robo de identidad para sacar créditos, tener acceso a una cuenta bancaria, lo usan como herramienta de contacto para cometer delitos sexuales como pedofilia".

"Muchas veces no actúan en forma directa cometiendo estos delitos, pero son quienes venden esta información, son datos que tienen mucho valor. Como en Internet se cargan cada vez más datos, esta situación crece".

Bortnik indica que en otra esfera aparecen casos de robo de identidad para difamar a otra persona. "Se arma un perfil falso para dañar al otro, es algo que ocurre mucho".

El especialista, que forma parte de la ONG Argentina Cibersegura, que alerta sobre estos problemas, cuenta que hace poco en un programa de radio del que participa entrevistaron a un periodista rosarino que había sido atacado por Internet.

"Le armaron toda una página web presentándolo como pedófilo, sufrió una grave difamación. Es por este motivo que por casos como estos y muchos otros estamos luchando para que el robo de identidad digital se tipifique como delito".

"Es difícil avanzar -continúa Bortnik- sobre las leyes del mundo virtual. Si bien en 2008 se avanzó con la ley de delitos informáticos, aún falta ampliar la legislación".

En transición

Bortnik dice que este tipo de delitos es más frecuente de lo que se piensa. "Somos una generación en transición. Todavía estos ilícitos nos llaman mucho la atención cuando pasan pero entiendo que lamentablemente llegaron para quedarse".

"Y así -agrega- como hoy es como un delito común que vemos a diario el robo de una billetera por parte de un punga, pasará lo mismo en un tiempo con el robo de identidad en internet, por eso hay que estar preparado".

Para prevenir estos delitos, explica el investigador, se pueden tomar algunas medidas. "Primero hay que cuidar la información que subimos a Internet. Pasa que a veces se excede con las cosas que se suben a la red. No hace falta subir todas las fotos, decir a cada rato en que lugar estar uno, cuando nos vamos de vacaciones".

También recomienda aunque no la usemos cotidianamente, formar una identidad digital. "Es preferible tener un perfil en Facebook, Twitter. Esto incluso sirve porque si alguien pone un perfil igual, ya tus contactos te conocen, se van a dar cuenta que no es el verdadero".

Marcelo Temperini, abogado y especialista en derecho informático coincide con Bortnik al afirmar que el robo de identidad es uno de los temas de más crecimiento en Internet.

"Esto se ve potenciado porque cada vez más afecta a la persona común. El crecimiento de las redes sociales ha hecho que casi toda la gente hoy tenga un perfil en Facebook y entonces muchos datos de la vida real se suben a estas redes".

Temperini indica que le ha tocado intervenir en casos de injurias y afectaciones a la imagen que ocurren cotidianamente en Facebook. "Se abren perfiles falsos para injuriar, dañar a otra persona".

Por estos días Temperini, que es socio de Asegurarte, una empresa que realiza investigaciones digitales, trabaja ayudando a un psicólogo del sur del país agredido y difamado por la web.

"En este caso una persona abrió un perfil falso, no de mi cliente, para hablar mal de él. Lo acusa de que tiene Sida y es pedófilo. Ya hizo varios amigos en Facebook. Estos mensajes una vez que se lanzan no tienen límites, por eso suelen generar daños irreparables".

Proyecto de Ley

Temperini está trabajando en un proyecto de ley para que se trate en el Senado de la Nación que tipifique el delito de suplantación de identidad digital.

"Hoy si una persona se hace pasar por otra en Internet, como hay un vacío legal no comete delito" cuenta el experto, quien relata otro caso de difamación.

"Nos tocó también investigar el caso de un político de una ciudad del interior del país a la que se le generó un perfil falso. Juntó rápidamente más de 300 amigos, empezaron las difamaciones. El tema es que no es fácil encontrar quien genera este perfil, lleva su tiempo".

Además de los perfiles falsos, muchas veces se "meten" en la cuenta de la persona, lo que se denomina "hackear" la cuenta. "Esto pasa mucho con los famosos. Toman la cuenta de twitter y escriben barbaridades en nombre de esta persona de renombre".

La ley de delitos informáticos que lleva el número 26388 en sus artículos 153 y 153 bis contempla estos ataques. "La violación de mails, jaqueo de cuentas está penado, pero crear un perfil falso de una persona no", dice Temperini.

El experto señala que el proyecto de ley en el que trabaja contempla que se tipifique como delito solo si se hace con la intención de dañar a esta persona o estafarla. "Si se abre con un sentido humorístico, sin daño, no entrará en el encuadre penal", dice el socio de Asegurarte.

El proyecto fijaría penas de seis meses a dos años de prisión o una multa económica. "Por la experiencia vemos que en muchos casos los difamadores son ex parejas o ex empleados. Muchas veces se los descubre y no se llega a instancia judicial, el quedar al descubierto ya lo amedrenta a seguir molestando".

Al igual que Bortnik, como medidas preventivas, el abogado recomienda no cargar tantos datos propios o de los movimientos diarios en las redes. También generar un perfil propio en las redes más conocidas.

Temperini agrega que es importante escribir contraseñas fuertes para entrar a los perfiles, no caer en nombres y datos fáciles de averiguar. "A veces ponemos el nombre del perro, la pareja, el hijo, esto es muy fácil de descubrir para un hacker".

Lo mismo con las preguntas de seguridad para recuperar una contraseña. "Tratar de poner cosas que no sepa todo el mundo, aunque la pregunta sea muy obvia, usar una respuesta que no sea fácil de hackear".

El experto también recomienda no conectarse a una red social o al correo electrónico desde otro vínculo. "Hay que ir a la web directa no abrirlo desde un contacto, porque a veces se ingresa a páginas falsas que sacan información".

Artículo original en Segu-Info

miércoles, 17 de octubre de 2012

Microsoft presenta la primera publicidad para Surface

Todos la usan

[ 16/10/2012 - 15:48 EST ]

Microsoft destinará alrededor de mil millones de dólares en publicidad para Windows 8. Parte del presupuesto estará destinado en la tableta Surface.

Diario Ti: Microsoft ha publicado el primer comercial en video de la tableta Surface, donde puede verse un gran número de personas que usan el producto con y sin el teclado/cubierta.


Según ha informado Microsoft, Surface estará disponible en 2 versiones, RT y Pro. La primera incorpora un procesador ARM, lo que implica que no estará en condiciones de ejecutar software Windows estándar (a excepción de una versión reducida de Microsoft Office), sino apps que podrán ser descargadas desde la propia tienda de aplicaciones para Windows.

La versión Pro tendrá las mismas funciones que un laptop corriente operado con Windows 8, pero incorporará además la funcionalidad de pantalla multitacto.

Más información sobre ambas tabletas en el sitio de Microsoft.

Por su parte, The Verge informa que algunos sitios, entre ellos Gizmodo y AllThingsD habrían publicado la víspera rótulos publicitarios donde se ofrecía encargar por anticipado la tableta, que sería despechado después de su lanzamiento, el 26 octubre. Sin embargo, horas después de iniciada la campaña los anuncios fueron desactivados, lo que lleva a The Verge a concluir que se trató de un error.

Video "The Surface Movement" (El Movimiento Surface) de Microsoft.



Artículo original en DiarioTI

Gran Bretaña anula la extradición de Gary McKinnon

"Solo" no irá a prisión en Estados Unidos

[ 16/10/2012 - 14:19 EST ]

La ministra del interior de Gran Bretaña, Theresa May, anunció hoy que el super hacker Gary McKinnon no será extraditado a Estados Unidos por razones humanitarias.

Diario Ti: En 2002, McKinnon admitió haber realizado ese año y el anterior varias intrusiones cibernéticas en sistemas vinculados a la defensa estadounidense, supuestamente en búsqueda de material sobre OVNIS. Luego de un requerimiento estadounidense, diversas instancias legales británicas, incluyendo la Corte Suprema, resolvieron extraditarle a Estados Unidos, donde arriesgaba una condena de hasta 70 años de cárcel por "terrorismo". Durante los últimos 10 años, EEUU ha insistido en la extradición del inculpado, probablemente para sentar un ejemplo, en el sentido que las intrusiones informáticas pueden, en ciertas circunstancias, constituir terrorismo.


La BBC informa hoy que la ministra del interior, Theresa May, anunció que el gobierno revocará la decisión por razones humanitarias.

McKinnon padece de la enfermedad de Asperger y sus médicos habían insistido en que podría desarrollar una psicosis grave, con tendencia al suicidio, en caso de ser sometido a un proceso judicial en EEUU.

McKinnon estaba acusado de haber entrado ilegalmente a un total de 97 sistemas informáticos estadounidenses. 53 de ellos pertenecían al ejército estadounidense, 26 a la armada y 16 a la NASA. Los dos últimos sistemas intervenidos por McKinnon pertenecían a la Secretaría de Defensa y la Fuerza Aérea, respectivamente.

En una oportunidad, McKinnon habría dejado fuera de servicio una red completa consistente de 300 estaciones de trabajo en US Naval Weapon Station Earle. Como parte de su intrusión, el inclupado borró archivos del sistema, inutilizándolo.

La fiscalía estadounidense estimó que el objetivo de McKinnon habría sido obtener control total de la red completa de las fuerzas armadas estadounidenses. Un representante de las entidades afectadas declaró en 2006 que "McKinnon, de manera premeditada y calculadora, intentó perjudicar al Estado mediante las amenazas y la intrusión".

Ese mismo año, McKinnon, aseguró haber visto la fotografía de un OVNI en el sistema de la NASA.

Fotografía: The Guardian

Artículo original en DiarioTI

Métodos de identificación: el cebrebro también puede ser la contraseña

Este artículo se publicó originalmente en Cooking Ideas, un blog de Vodafone donde colaboramos semanalmente.

En muchas ocasiones subestimamos la importancia que tienen las contraseñas, especialmente aquellas con las que nos identificamos ante ordenadores y servicios de Internet. La culpa, en parte, está en lo tedioso que resulta lidiar con la creciente necesidad de utilizar cada vez más claves en más lugares.

Tampoco los sistemas operativos ni el software ayudan a crear un "habito saludable" con respecto a las contraseñas, otorgándoles mucha menos importancia que, al menos en teoría, merecen. Muchos de ellos se ofrecen voluntariosamente a guardar las contraseñas del usuario para ahorrarle a éste el paso de tener que teclearlas; y hacer así su vida más cómoda, aunque también sea, al menos en teoría, menos segura.

Es el caso del correo electrónico, el acceso a discos duros virtuales o a servicios y páginas de Internet cuyos datos de acceso "memoriza" el navegador, a los que diariamente se accede sin teclear en ningún momento una contraseña que verifique que quien los está utilizando es su legítimo propietario.

Tampoco la mayoría del software que utiliza contraseña considera conveniente recordar de vez en cuando la importancia de cambiar las claves transcurrido cierto tiempo. Ni la mayoría del software tampoco se preocupa de comprobar que la contraseña elegida por el usuario sea más o menos fuerte ni que al menos no se utilicen palabras ampliamente utilizadas como contraseñas. En cambio suelen aceptar casi cualquier cosa. Muy en parte debido a que nadie quiere arriesgarse a perder un usuario al obligarle a pensar en una contraseña más elaborada y compleja, más segura.

Lo anterior sin considerar que, por encima de todo, el hecho de teclear la contraseña correcta no implica necesariamente que quien está accediendo al sistema sea realmente su legítimo usuario.

En este sentido hace poco mencionaba por aquí un método desarrollado para verificar, de forma automática y constante a lo largo del tiempo, que quien está haciendo uso de un sistema u ordenador es la misma persona que se identificó ante él. La autenticación cognoscitiva identifica al usuario por su forma de pensar y actuar delante del ordenador.

Es decir, aquella se trataba de una nueva forma de certificar la identidad del usuario analizando factores intrínsecos a él, como la forma en la que interactúa con el sistema, o por cómo maneja el ratón o teclea. Un software se encargaría de analizar de forma constante y automáticamente, y de forma transparente para el usuario, su «huella cognoscitiva», verificando la identidad de quien está utilizando el ordenador.

También hay en desarrollo procedimientos que buscan nuevas formas de identificación, más allá del método de teclear una contraseña que se compara con la guardada de forma local o en servidores remotos. Puede que el método actual sea válido para la inmensa mayoría de las personas y en relación a los sistemas actuales. Pero conforme evoluciona la manera en la que se manejan los ordenadores serán necesarias nuevas formas de identificarse ante ellos.

Si los ordenadores se manejan mediante gestos o forman parte de la vestimenta probablemente serán necesarias nuevas formas de identificar al usuario.

Un método vinculado a su individualidad pasaría por sus registros biométricos, como el reconocimiento ocular (del iris), la lectura de la huella dactilar o el reconocimiento facial.

Aunque el reconocimiento ocular apenas ha salido de las películas el uso de la huella dactilar o el reconocimiento facial sí han llegado a implementarse en electrónica de consumo, aunque con más pena que gloria. O al menos no se ha producido la adopción general de estos nuevos modelos para identificarse ante ordenadores y sistemas. El primero tuvo una tímida adopción por parte de algunos fabricantes de ordenadores portátiles que incluían un lector de huella dactilar, aunque su utilidad práctica rápidamente se demostró nula.

El reconocimiento facial se ha implantado en las últimas versiones del sistema operativo móvil Android, que utiliza la cámara frontal del teléfono para "ver" al usuario y, caso de ser su legítimo propietario, dar acceso al teléfono. Su adopción es casi residual dado lo engorroso del proceso: no sólo resultó que se podía "romper" este mecanismo de seguridad poniendo delante del teléfono una foto del usuario (aunque siguientes versiones mejoren este sistema); tampoco resulta útil en situaciones tales como intentar acceder estando en movimiento o situaciones de poca luz y oscuridad, donde el código numérico no falla.

Como sea, de los de los métodos desarrollados en los últimos años ninguno ha desplazado el método común de escribir una contraseña o clave o, en el mejor de los casos, trazar un patrón preestablecido en la pantalla del teléfono móvil, que al fin y al cabo no difiere mucho de la fórmula de teclear una serie numérica. Tampoco han cuajados métodos de identificación complementarios como el del DNI electrónico o los certificados digitales, cuya aplicación práctica apenas va más allá de lo puntual y de lo anecdótico.

Mientras tanto, los investigadores siguen trabajando en nuevas formas de identificación. Una de las últimas propuestas pasa por comprobar las señales del cerebro o los latidos del corazón como formas de certificar la identidad.

Los latidos del corazón, según investigadores citados por ABC Science, sigue un patrón que se considera único e individual para cada persona, incluso aunque varíe el ritmo cardiaco.

Del mismo modo que lo es la reacción del cerebro ante determinados estímulos externos. El cerebro de una persona producirá una respuesta eléctrica única al reconocer, por ejemplo, una imagen de su madre.

De modo que el método de identificación se podría basar, según explican los investigadores, en la selección de dos imágenes de entre un grupo, una genérica y otra de un sujeto conocido y personal, caso de la fotografía de su madre.

Elegir la pareja de imágenes adecuada ya sería en sí misma una forma de identificarse. Pero además la selección de ambas fotos iría acompañada de una lectura de las señales del cerebro correspondientes a la reacción de ver sendas imágenes. De modo aunque otra persona elija esa misma combinación, por casualidad o por que la conozca, la reacción de su cerebro al visualizarlas y elegirlas no sería la misma, y por tanto la identificación sería nula.

Este tipo de mecanismos de identificación podrían considerarse válidos por sí mismos o complementarios a los métodos actuales, también al "viejo método" de teclear una contraseña. Eso sí, para ello todavía se debe resolver, entre otras cosas, que su aplicación no requiera poner instrumentos de medida en contacto con la persona, sino que sea posible captar este tipo de señales de forma remota.

Publicado por Nacho # 17/Oct/2012

Artículo original en Microsiervos

miércoles, 10 de octubre de 2012

Nueva solución para evitar el robo de contraseñas en los servidores

MADRID, 10 (Portaltic/EP)

La compañía RSA, especializada en soluciones de seguridad y encriptación, ha presentado Distributed Credential Protection, una solución específicamente diseñada para evitar que los 'hackers' puedan robar contraseñas en los servidores de las empresas. La herramienta se basa en codificar las contraseñas y dividirlas, de forma que se utilicen dos servidores para su almacenamiento.

En los últimos meses los casos de robos de contraseñas se han sucedido en distintos servicios. Ejemplos como el vivido en LinkedIn o el sufrido por Sony (Other OTC: SNEJF.PK - noticias) el año pasado, casos en los que se robaron miles de contraseñas, son una prueba de la actualidad y gravedad de estos problemas. Las compañías tienen la necesidad de mejorar su seguridad para evitar estos problemas, que suponen un trastorno para su actividad y para su imagen.

Más allá de los sistemas de protección habituales, RSA ha desarrollado una solución innovadora que podría ayudar a que los 'hackers' lo tengan más difícil a la hora de robar las contraseñas. La solución se ha denominado Distributed Credential Protection y está enfocada a que sea más difícil conseguir las contraseñas una vez que se ha penetrado en los sistemas.

Hasta ahora, la máxima seguridad de los sistemas de las empresas una vez que los cibercriminales accedían a sus servidores era disponer de contraseñas encriptadas. Sin embargo, esa protección no siempre ha sido definitiva. Por ello, Distributed Credential Protection ofrece un sistema para reforzar ese punto.

La solución de RSA consiste en encriptar las contraseñas y dividirlas, almacenando cada parte en un servidor distintos. De esa forma, el software de RSA asigna un código a cada parte de la contraseña que permite recuperarlas y unirlas. El código es aleatorio y controlado por las compañías, según explican en InformationWeek.

Con este sistema, los ciberdelincuentes tendrían que vulnerar la seguridad de los dos servidores y conseguir acceso a los códigos que unen las dos partes de la contraseña. Aunque no se puede garantizar que el sistema sea infalible, sí que complica la acción de los 'hackers' ayudando a mejorar la seguridad de los sistemas. Además, permitiría que las empresas, en caso de identificar actividad sospechosa en alguno de los puntos del sistema, pueda reaccionar cortando el acceso al segundo servidor o al sistema que genera los códigos de las contraseñas.

Enlaces relacionados:

- InformationWeek (http://www.informationweek.com/security/encryption/rsa-launches-database-breach-prevention/240008730)

Artículo original en Yahoo Noticias

Las soluciones Linux pueden reducir hasta un 80% los gastos de software y hardware


Según un estudio elaborado por IDC en colaboración con SUSE, proveedor de soluciones Linux, en tiempos de depresión económica se produce un aumento en la adopción de software de código abierto. Esta tendencia se justifica en cuatro beneficios: ahorro económico y de tiempo, mejor aprovechamiento de los recursos y reducción de riesgos. Según SUSE, esta medida le puede reportar a las administraciones hasta un 80% de ahorro en software.

Los beneficios que se pueden lograr gracias a esta iniciativa son:

1 - Ahorro económico. Con SUSE Linux Enterprise Server los clientes pueden ahorrar hasta un 80% en costes de software y hardware. Este último siempre y cuando se quiera seguir usando la misma maquinaria.

2 - Ahorro de tiempo. Los administradores de TI emplean menos tiempo en resolver incidencias de sus sistemas Linux.

3 - Según un estudio de the Information Technology Intelligence Corporation, SUSE Linux Enterprise Server es una de las plataformas más fiables del mercado con un promedio de tiempos de inactividad no planificados por debajo de Solaris, Red Hat Enterprise Linux, y Windows Server 2008.

4 - Mayor aprovechamiento de recursos. Las herramientas de virtualización de SUSE Linux Enterprise Server permiten a los clientes consolidar las cargas de trabajo en menos servidores físicos. Ejecutando las cargas de trabajo en el mainframe, se puede aprovechar el hardware anterior, sin necesidad de adquirir máquinas nuevas.

5 - Reducción de riesgos. SUSE Linux Enterprise Server es una plataforma fiable, lo que reduce significativamente los riesgos asociados a las caídas e improductividad de sistemas. Al tratarse de una solución de licencia abierta y con un código fuente transparente, el riesgo de los proveedores de tecnología se reduce al mínimo.


Artículo original en MuyComputerPRO

La 'comunidad Linux' se levanta en armas contra el nuevo Windows 8

Se veía venir...

No está aún en la calle y ya genera polémica. El nuevo Windows 8 llegará a las tiendas el próximo 29 de octubre, pero ya son muchos los que le esperan con los cuchillos afilados. Uno de ellos es la comunidad de usuarios de Linux, que acusa a Microsoft de estar tendiendo una trampa al software libre con su nuevo producto. La polémica gira en torno a una modalidad de arranque que implementará Windows 8, el conocido como secure boot

07-10-2012 - En realidad el secure boot, o «arranque seguro», no es una característica de Windows 8, sino del UEFI, una evolución de la clásica BIOS que se emplea en los ordenadores más modernos (y en las máquinas de Apple desde hace años) y permitiría a Microsoft controlar qué programas se cargan al iniciar el ordenador por medio de una clave. El arranque seguro garantiza que, por ejemplo, aunque se esté infectado por un virus, éste no volverá a cargarse tras un reseteo por no estar firmado por el sistema operativo. Una ventaja que se podría ver empañada con un mal uso. Y es que igual que los virus, tampoco Linux o cualquier otra aplicación no comercial contaría con la firma de Microsoft. De las aplicaciones de grandes compañías, como Adobe Photoshop o iTunes, se espera que alcancen acuerdos con la compañía fundada por Bill Gates.

No obstante la comunidad del software libre está que echa humo. «UEFI es una tecnología maravillosa, llena de posibilidades. Es una pena que Microsoft la utilice para evitar que con Windows convivan otros sistemas operativos», explica a Teknautas Alberto Planas, desarrollador y programador de software libre. Según Planas y asociaciones como Hispalinux, Windows estaría exigiendo a los fabricantes informáticos la activación por defecto del secure boot como condición sine qua non para obtener la licencia oficial. En este escenario, Microsoft controlaría todo lo que se arranca en el ordenador por medio de una clave y ni siquiera un formateo del disco duro sería válido para revertir la situación.

Desde Microsoft admiten esta realidad con matices. Según las explicaciones de los ingenieros implicados en el proyecto, Windows 8 exigirá a los fabricantes por defecto el secure boot, si bien dejarán «en manos del fabricante la última palabra a la hora de decidir quién gestiona los permisos de seguridad en cada equipo». Según la versión oficial de la compañía «el arranque seguro no es un bloqueo de los cargadores de sistema operativo -los que permitirían un arranque dual-, pero sí es política de la empresa que el firmware valide la autenticidad de los componentes», para asegurar después que «el fabricante tiene el derecho a modificar el firmware acorde a las necesidades de sus clientes. Al final, Microsoft pone las medidas de seguridad y es el usuario el que toma su decisión personalmente».


El Confidencial


Huawei: "La verdadera intención es excluir a China"

Huawei vs. EE.UU

[ 09/10/2012 - 10:10 EST ]

Huawei contraataca en duros términos frente a las acusaciones del Comité de Inteligencia del Congreso estadounidense, que le acusa de amenazar los intereses de ese país.

Diario Ti: El Comité de inteligencia del Congreso estadounidense (HPSCI, House Permanent Select Committee on Intelligence) publicó el 8 octubre un informe resultante de once meses de investigación de las empresas chinas Huawei y ZTE, concluyendo que ambas amenazan la seguridad interior de Estados Unidos. El informe completo, titulado Investigative Report on the U.S. National Security Issues Posed by Chinese Telecommunications Companies Huawei and ZTE, está disponible para la opinión pública en este enlace (documento PDF de 60 páginas en inglés).

El informe recomienda a las autoridades y al sector público de ese país no comprar equipos de Huawei y ZTE, desaconsejando además todo intento de fusión con empresas estadounidenses.

El informe indica que "con base en información disponible, de carácter reservado o público, no es posible confiar en que Huawei y ZTE operen independientemente de influencias estatales extranjeras. Por lo tanto, constituyen un riesgo de seguridad frente a Estados Unidos y nuestros sistemas".

Huawei, por su parte, publicó una enérgica declaración titulada "Statement regarding HPSCI´s report", donde indica que el informe no contiene información que sustente las sospechas del Comité. La empresa recalca además haber entregado toda la información solicitada por el Comité, compareciendo además en todas las oportunidades que se les solicitó presentarse frente el grupo de legisladores. "A pesar de haber hecho todo lo que pudimos, parece que el Comité ya había decidido el desenlace que tendría su investigación", escribe Huawei en su declaración.

Asimismo, indica que el informe se basa en "rumores y especulaciones", y no en el hecho de que prácticamente todas las empresas TI del mundo operan a escala global en cuanto a investigación, desarrollo de software y producción.

Huawei indica que las empresas internacionales comparten la misma cadena de suministro, y que los desafíos en seguridad informática no pueden ser solucionados por una empresa o un solo país por separado. Al respecto, escribe que "el Comité desconoce totalmente este hecho".

Por lo tanto, la conclusión de Huawei es inequívoca: "Debemos entonces suponer que el único propósito del informe es socavar la libre competencia e impedir la participación de empresas TI chinas en el mercado estadounidense".

Huawei destaca además la forma en que su propio desarrollo equivale a los ideales postulados por los propios Estados Unidos. En tal sentido, indica que, al contrario que la mayoría de las grandes empresas chinas, Huawei comenzó como un pequeño emprendimiento hace 25 años, convirtiéndose con el paso del tiempo en un gigante global, sin contar con apoyo financiero y participación propietaria del Estado chino. La empresa es 100% propiedad de sus fundadores y otros empleados.

"No hay diferencia alguna entre Huawei y otros emprendimientos del Valle del Silicio. Nuestro crecimiento y desarrollo se explica únicamente en nuestra dedicación, la actitud y duro trabajo de nuestros empleados, y nuestro irrevocable voluntad de innovación".

Sin embargo, el informe de HPSCI presenta una impresión totalmente distinta de Huawei. Entre otras cosas, el Comité escribe que Huawei no cooperó durante la investigación, y que no compareció cuando se le solicitó explicar su relación con las autoridades chinas o con el gobernante Partido Comunista. Asimismo, hace referencia a "material confiable" según el cual Huawei evita acatar las leyes estadounidenses.

Artículo original en DiarioTI

Algo está cambiando en Microsoft

Txaumes
10 de octubre de 2012 | 17:20

Hace muchos años tuve el privilegio de asistir a la presentación mundial de la primera Xbox. En aquel evento, un grupo de periodistas trasteábamos con la consola y uno de ellos comentó: 'No se van a comer nada' en referencia a la entonces hegemonía absoluta de PS2. En ese momento, otro de los periodistas allí reunidos le miró muy serio y le replicó: 'Sí, lo mismo decían de Windows 1.0'.

Microsoft es muchas cosas, algunas buenas, otras no tanto, pero si hay algo que la compañía ha sabido hacer como nadie es perdurar y además con bastante éxito. La Xbox es precisamente ejemplo de algo que los de Redmond hacen a veces y que, a juzgar por las palabras de Steve Ballmer en su última carta anual a los accionistas, vamos a ver mucho más: lanzar su propio hardware.

La noticia del día, básicamente, es que Steve Ballmer ha anunciado el comienzo de una nueva era para Microsoft, una era en la que la compañía lanzará hardware específico más a menudo.

Ballmer no ha explicado a qué se refiere con esto de lanzar más hardware, pero a la luz de la presentación de los tablet Surface y de los insistentes rumores de un smartphone Windows 8, podemos deducir que no se está refiriendo precisamente a ratones y teclados.

El final de una era (ahora sí)

En su carta, Ballmer explica cómo Microsoft a veces lanza dispositivos que responden a propósitos muy específicos como la Xbox o los tablet Surface. El CEO de Microsoft añade que el lanzamiento de Surface supone un salto decisivo para la compañía en áreas de negocio que serán de vital importancia en el futuro.

Las palabras de Steve son muy lógicas. Hemos tardado cerca de dos años pero finalmente sí que podemos hablar, en cierta manera, de una era post PC. Hasta ahora, los tablet no podían sustituir a un ordenador estándar para ciertas tareas, especialmente las relacionadas con productividad.

Esa situación ha cambiado. Aunque hay categorías de producto, como las estaciones de trabajo o los grandes ordenadores para videojuegos que siguen siendo necesarios, la mayor parte de usuarios se pueden apañar con un tablet para su día a día.

En Microsoft le vieron venir las orejas al lobo y su respuesta fue Windows 8, un sistema operativo multipropósito pensado para funcionar por igual en tabletas o en ordenadores más tradicionales.

Un ecosistema propio

Los que no vieron venir al viejo lobo Microsoft fueron los fabricantes de hardware. La pataleta de Acer cuando los de Redmond lanzaron la Surface fue muy sintomática y, aunque fueron los únicos en quejarse públicamente, estoy seguro de que en Asus, Samsung o HTC también hubo reuniones nada alegres para comentar la jugada. El propio Ballmer siempre ha asegurado que las Surface son complementarias a los demás tablet que hay en el mercado, pero su lanzamiento no es precisamente una maniobra amistosa.

No es de extrañar que Microsoft decidiera 'jugársela' a sus clientes habituales convirtiéndose en su competidor de la noche a la mañana. Al fin y al cabo esos clientes llevaban dos años tonteando reiteradamente con otro sistema operativo, Android, que cada vez funciona mejor y que no cobra peaje (al menos no directamente) por su uso.

En realidad, Android fue sólo el detonante de la decisión de Microsoft. Si los de Redmond han decidido meterse a fabricar hardware y software asociado es, sencillamente, porque pueden; porque han visto hacia donde va el mercado y tienen los medios para dar ese golpe de timón sin que se les hunda el barco.

A nadie se le escapa que Microsoft ve en Apple (su amado y odiado archirrival de toda la vida hasta que apareció Google) el reflejo de lo que quiere ser, una compañía que disfruta de un ecosistema propio con su hardware y su software y no depende de terceros (a excepción de fabricantes de componentes, claro está).

Se acerca una tormenta

La decisión de Microsoft pone a todo el sector en el camino a aguas menos mansas que las actuales. Los fabricantes de tabletas tienen un competidor más y, por mucho que el inocente de Stephen Elop lo niegue, Nokia y el resto de fabricantes de móviles harían bien en contar con que no pasará mucho tiempo antes de que llegue un Surface Phone.

Microsoft lleva navegando entre estas olas bravas desde el lanzamiento de Windows Phone 7, un sistema operativo que, personalmente, me parece soberbio pero que por diferentes razones no acaba de atrapar la suficiente cuota de mercado. El propio Ballmer ha visto recortado su bonus anual en un 9% debido a la lentitud con la que Windows Phone está despegando.

Ese toque de atención también tiene que ver con el no haber logrado un acuerdo con la UE en lo que al navegador se refiere, una disputa antimonopolio que ya le ha costado más de mil millones de dólares en multas.

Más allá de los golpes a los ingresos de Ballmer, el problema de Microsoft no es sólo el lento despliegue de Windows Phone. La compañía sigue recibiendo muchos ingresos de las ventas de licencias a fabricantes de PC tradicionales cuyas ventas han descendido un 3% en el último año y están estancadas precisamente por la irrupción de los tablet y ultrabooks.

Está claro que Microsoft debía tomar esta decisión ahora, pero eso no quiere decir que el momento de mercado sea el más favorable a sus deseos. No es la primera vez que ocurre esto. La veterana compañía a veces acierta (Xbox) y a veces falla (Zune) pero de una manera o de otra siempre sale adelante. No en vano lleva en esta guerra desde antes de que siquiera hubiéramos oído hablar de muchos de sus rivales actuales.

Artículo original en Xataka

miércoles, 3 de octubre de 2012

La regleta espía

Enviado por squirrel en Mié, 01/08/2012 - 6:59pm

Por squirrel

En una época en la que los gadgets de espionaje son cada vez más pequeños y accesibles, resulta curioso ver uno financiado por DARPA: Una regleta de corriente que además incorpora puertos USB y Ethernet.

La particularidad del cacharro es que en su interior esconde un ordenador precargado con toda una batería de software que a más de uno le dará desasosiego, o le hará la boca agua: Debian 6, Metasploit, SET, Fast-Track, w3af, Kismet, Aircrack, SSLstrip, nmap, Hydra, dsniff, Scapy, Ettercap y utilidades Bluetooth, VoIP e IPv6. Además incorpora WIFI, Bluetooth y una tarjeta de red con posibilidad de "modo transparente" para esquivar los filtros por MAC, es controlable remotamente vía SMS y como cualquier Linux configurable hasta la saciedad.

El único defecto: el precio, 1250$, aunque hay disponibles hermanos menores más baratos. (web del fabricante).

Yo que vosotros iría identificando las regletas de casa, no vaya a ser que el Gran Hermano os de el cambiazo :-D

Visto vía el blog de Bruce Schneier.

Artículo original en Kriptópolis

Cryptocat: conversaciones de chat cifradas desde Firefox y Chrome

JJ Velasco
3 de octubre, 2012, 01:36

Cada vez son más los gobiernos que dedican esfuerzos a la monitorización de los ciudadanos y éstos, la verdad, es que no tienen muchas opciones para evitar que sus comunicaciones a través de redes sociales como Facebook o servicios como Gtalk sean interceptadas por terceros (ya sea un organismo gubernamental o un tercero con no muy buenas intenciones que esté conectado a la misma red que nosotros). El usuario se ha convertido, prácticamente, en su mejor defensa a la hora de garantizar el secreto de sus comunicaciones, ya sea usando conexiones cifradas (usando SSL por ejemplo) o a través de conexiones VPN. En el caso de querer mantener una conversación mediante un chat, existe desde hace algún tiempo un proyecto muy interesante llamado Cryptocat que nos ofrece un servicio de mensajería instantánea privada y cifrada que podemos usar a través de nuestro navegador.

Disponible tanto para Firefox como para Chrome es un servicio muy interesante y, sobre todo, muy a tener en cuenta si queremos garantizar el secreto de las reuniones virtuales que mantengamos a través de este sistema de mensajería instantánea que, por cierto, es un proyecto de código abierto que establece canales cifrados mediante AES-256 y el protocolo OTR (Off-the-Record Messaging).

En cuanto al uso, el sistema está orientado hacia el mundo de los navegadores (que se ha materializado en extensiones para Firefox y Google Chrome) y se espera que, en no mucho tiempo, permita a los usuarios intercambiar información, al fin, de manera anónima (y sin posibilidad de identificación y rastreo) incluso usando dispositivos móviles (subiendo un pequeño peldaño más frente a otras alternativas como la red Tor).

La idea es más que interesante y, desde luego, es un recurso que vale la pena tener instalado en nuestro ordeanador (tanto en el fijo como en el ordenador portátil.


Artículo original en bitelia.com

Cómo esconder información a la vista de todos

03-09-2012 |  12:03 hs.
Autor: Alan Woodward

Fuente: BBC


Hasta ahora, se ha hecho un gran esfuerzo para lograr que estos textos no puedan ser leídos por ninguna persona que no sean los destinatarios.

Esta es la esencia de la criptografía. Sin embargo, hay otra opción: los mensajes ocultos a plena vista, el equivalente electrónico de la tinta invisible.

Podemos decir que todos los mensajes entran en alguna de estas tres categorías:

Con sentido o sense - el mensaje se envía "limpiamente" y cualquier persona que intercepte los datos los puede leer tan fácilmente como si fuera el destinatario.

Sin sentido o nonsense - la información interceptada se convierte en un mensaje sin sentido para que sólo la gente con la llave correcta lo pueda descifrar, al reconvertirlo de "sin sentido" a "con sentido". Eso es la criptografía.

Sentido equivocado o missense - en el mensaje se insertan algunos datos inocuos para que nadie sospeche que allí hay un mensaje oculto. Esto se conoce como esteganografía.

Aunque no nos demos cuenta, probablemente ya estemos utilizando la esteganografía en nuestra vida electrónica diaria. Y es que se usa ampliamente para poner una "marca de agua digital" sobre datos electrónicos con información como la de derechos de autor.

Las nuevas tecnologías son capaces de contener una considerable cantidad de información, sin tener ningún efecto perceptible sobre el objeto que se está marcando digitalmente. Fotografías, música e incluso los libros electrónicos utilizan esta tecnología, para disuadir a los piratas.

Datos no tan inocentes

Mientras que las marcas de agua digitales están diseñadas para guardar información como los datos de derechos de autor, esas técnicas también se pueden utilizar para insertar mensajes ocultos en objetos digitales, lo que plantea un problema para las agencias que vigilan la aplicación de la ley.


Si hay algo que se envía "limpiamente", se pueden configurar filtros para buscar palabras de interés y así lograr dar un vistazo a los datos en cuestión.

Ahora mejor si algo parece no tener sentido. Porque es bastante probable que en realidad, lo tenga. Después de todo, si alguien se ha tomado la molestia de cifrar datos para que se vea como una tontería entonces se puede asumir que se trata de algo importante para el emisor y por lo tanto vale la pena prestarle una mayor atención.

Por el contrario, todo lo que se envía como "sentido equivocado" es altamente probable que se pase por alto, pues aparecerá para todo el mundo como una pieza inocente de datos.

Es el clásico truco de la distracción. Esto es importante en el mundo moderno ya que los volúmenes de datos que un intruso tiene que tamizar son enormes.

Nadie puede analizar cada una de las piezas de datos que pueden potencialmente ser interceptadas. Así, si la pieza de datos se ve como una foto, pero en realidad contiene detrás un mensaje secreto, nadie sabrá que tiene que llevar a cabo un análisis más detallado sobre esa foto.

Gobiernos y militares no son los únicos que quieren transmitir mensajes de forma segura.

Código criminal


Los candidatos obvios para esto son grupos terroristas y la delincuencia organizada. Aquellos que tienen razones para pensar que están bajo vigilancia pueden encontrar la esteganografía como algo muy atractivo, ya que este tipo de mensajes no pueden enviarse por correo electrónico simple.


Imaginemos, por ejemplo, que alguien publica fotografías aparentemente inocentes en un sitio de redes sociales, pero, en realidad, contienen un mensaje secreto.

Todo el mundo puede verlo, pero sólo los que saben dónde buscar pueden ver el mensaje deseado.


Es como cuando un empleado descontento con su trabajo envía por correo electrónico una foto de sus niños a un amigo, pero que en realidad está enviando la información más sensible de la empresa para efectos comerciales.


El capital intelectual podría estar desapareciendo ante los ojos del empleador y no lo sabría nunca, aún si leyera todos sus correos electrónicos.

Leer entre líneas

A veces es difícil saber incluso en qué tipo de objeto se puede ocultar un mensaje. Algunas formas muy innovadoras han surgido en los últimos años.

Una de las que me pareció más impresionante está en la variación sutil de la distancia de separación entre las letras de una página web, de tal manera que allí se transmiten mensajes ocultos. Las páginas se leen con absoluta normalidad, pero todo el tiempo se están viendo datos ocultos que no se reconocen como tal.

También hay una manera de tener lo mejor de ambos mundos: cifrar un secreto y luego integrarlo usando la esteganografía. De esta manera, incluso si el mensaje oculto se detecta, no se podrá leer.
En tanto, mientras que la investigación de marca de agua digital continúa madurando, la investigación sobre la detección de mensajes ocultos se encuentra todavía en pañales.

La decodificación de mensajes encriptados (llamado criptoanálisis) ha sido estudiada en profundidad, con avances como los ampliamente celebrados de Bletchley Park durante la II Guerra Mundial.

En cambio, la detección de mensajes ocultos -conocido como steganalysis- no tiene una historia así de exitosa. En parte, esto se debe a que diversos estudios de grandes conjuntos de datos puestos en internet fallaron en la detección del uso de la esteganografía. Por ello no se considera una amenaza.


Pero, si las técnicas utilizadas para ocultar datos han avanzado lo suficiente, la falta de madurez de las técnicas de detección significa que estos estudios fallan desde la base.

¿Se volverá popular en algún momento la técnica de ocultar mensajes? Creo que es inevitable que los chicos malos ya las estén utilizando en internet.

Hay herramientas disponibles libremente que permiten hacer todo lo que he descrito anteriormente y estas herramientas siguen avanzando.

Lo que hace falta es la financiación adecuada para las técnicas de detección, o como mínimo, un método más fiable para determinar si se está usando esteganografía para ocultar mensajes en masa, si es que queremos tener una comprensión adecuada de la amenaza.

Alan Woodward es profesor visitante del departamento de Informática de la Universidad de Surrey. Ha trabajado para el gobierno de Reino Unido y aún proporciona asesoramiento en temas como seguridad cibernética, comunicaciones secretas e informática forense.

Artículo original en puntobiz

viernes, 8 de junio de 2012

Microsoft lanza un prototipo de código abierto para acelerar Internet

Microsoft Open Technologies


[ 08/06/2012 - 13:44 EST ]

Un mes después del lanzamiento de Microsoft Open Technologies (MS Open Tech), esta subsidiaria creada para potenciar la inversión en Openness de la compañía, ya ha obtenido sus primeros resultados con la publicación de un prototipo del estándar HTTP Speed+Mobility de código abierto.

Diario Ti: Asimismo, también se ha lanzado Redis en Windows, un almacén de datos de código abierto en red, de un valor clave para la comunidad del open source.


“Dado que el interés en interoperabilidad y el código abierto ha crecido y madurado, Microsoft busca nuevas formas de responder a esta situación. Siempre estamos buscando la mejor manera de dar servicio a los desarrolladores, clientes y partners en entornos mixtos de TI", señala Jean Paoli, presidente de Microsoft Open Technologies y cocreador del estándar XML 1.0 con el World Wide Web Consortium (W3C), a lo que añade: “Esta nueva estructura facilitará la interacción entre los procesos propietarios de desarrollo de software de Microsoft y los esfuerzos de la compañía en innovación abierta y en las relaciones con las comunidades de código abierto y estándares abiertos".

Mayor involucración
Precisamente sobre el papel de esta subsidiaria, su presidente asegura que Microsoft viene luchando denodadamente en la última década para dar soporte a desarrolladores, partners y clientes que trabajan en entornos mixtos de TI. “Microsoft tiene soluciones fiables y rentables para aquellos clientes que gestionan entornos heterogéneos y necesiten una solución que permita que Microsoft y el código abierto convivan", apunta. En este sentido la apuesta de Microsoft por Windows Azure es clara, pues ofrece a sus clientes los beneficios de sus servicios en la nube, de modo que proporciona menor coste, mayor colaboración y facilidad de acceso a infinidad de aplicaciones.

Además, a través de la MS Open Tech, la compañía seguirá involucrándose con las comunidades de open source y estándares abiertos, mediante acciones como el patrocinio de la Outercurve Foundation o la Apache Software Foundation. Además, seguirá trabajando en temas como el lenguaje HTML5 de la W3C, el protocolo HTTP 2.0 de la IETF, los estándares cloud DMTF y OASIS, y diferentes entornos de código abierto como Node.js, MongoDB y Cordova/PhoneGap.

Más información en www.gacetatecnologica.com

Ilustración: Captura de conciliador y desenfadado video sobre Linux, publicado por Microsoft en su sitio Gaceta Tecnológica.

Artículo original en Diario TI

60% de los profesionales TI preocupados por fuga de información

ESET lanza la Guía del Empleado Seguro

[ 08/06/2012 - 13:50 EST ]

La fuga de información es el principal temor de las empresas latinoamericanas en materia de seguridad informática, según revelan los datos recopilados por el ESET Security Report 2012. En el informe, el 60,88% de los encuestados indicó la pérdida de datos como su principal preocupación.

Diario Ti: Con el fin de acompañar a las compañías de la región en el desarrollo de acciones de difusión y capacitación que permitan prevenir este tipo de incidentes, el equipo de especialistas de ESET Latinoamérica ha elaborado la Guía del Empleado Seguro, documento que busca ayudar a los empleados de las organizaciones a implementar buenas prácticas de administración de los datos a partir de una comprensión de la problemática y una descripción de las principales amenazas informáticas.


“Un empleado seguro es aquel que cuenta con la educación adecuada para utilizar los recursos de la empresa con eficiencia y seguridad. Con la presentación y difusión de la Guía del Empleado Seguro, queremos colaborar desde ESET para que las compañías trabajen en los tres pilares fundamentales de la seguridad de la información: las tecnologías, la educación y la gestión", aseguró Sebastián Bortnik, Gerente de Educación & Servicios de ESET Latinoamérica.

Puede acceder a la versión completa de la Guía del Empleado Seguro de ESET Latinoamérica ingresando a: endpoint.eset-la.com (documento PDF de 18 páginas, en español).

Entre las 10 buenas prácticas básicas que todo miembro de una organización debe implementar para proteger la seguridad de la información se encuentran:

1. Leer, entender e implementar lo indicado en las Políticas de Seguridad de la compañía: Es ideal que toda empresa cuente con una política de seguridad con el objetivo de que todos los empleados conozcan cuán importante es la protección de la información para la empresa. El material debe ser entregado y debidamente explicado al empleado al momento de su ingreso en la compañía. También se recomienda solicitar su compromiso para el cumplimiento de dichas normas a partir de la firma de un documento de consentimiento.

2. Conocer y respetar las herramientas instaladas en su equipo: Las tecnologías son la base de la seguridad informática en las empresas. Un empleado seguro debe mantenerse atento a las alertas de sus soluciones antivirus, firewall y antispam, entre otras.

3. Conocer los códigos maliciosos más comunes e implementar buenas prácticas para evitar la infección: El malware - acrónimo de malicious software, es decir, software malicioso- es uno de los ataques más comunes de la actualidad. Y aunque la infección de un código malicioso pareciera no impactar en el trabajo cotidiano, este tipo de incidentes representa un riesgo de pérdida de la información, del tiempo y también del dinero.

4. Mantenerse atento ante posibles estrategias de Ingeniería Social: La Ingeniería Social es la utilización de habilidades sociales para manipular el accionar de una persona. A partir de estas estrategias, los desarrolladores de códigos maliciosos y atacantes informáticos suelen utilizar distintos medios para engañar y así comprometer la seguridad de la empresa. Entre los engaños de Ingeniería Social más comunes se encuentran la estafa nigeriana- fraude vía correo electrónico en que se solicita al usuario el envío de una suma de dinero como supuesta condición para acceder a una fortuna inexistente resultado de una herencia, un premio u otros- y la utilización de falsas noticias sobre catástrofes naturales o estrellas populares con el objetivo de despertar la curiosidad de la víctima y lograr que descargue alguna aplicación maliciosa.

5. Ser precavido en el transporte y almacenamiento de la información, tanto a nivel digital como físico: Un incidente de fuga de información puede ser generado por un mal accionar de las personas y no sólo por una acción maliciosa. Es necesario entender que el robo de información no solo se puede dar a través de medios digitales, sino que también involucra al material físico. Por ejemplo, si alguien se olvida un documento confidencial en un lugar público, como el plan de marketing o la lista de clientes, esto podría caer en manos de la competencia y revelar la estrategia de la compañía.

6. Utilizar el dispositivo móvil de la empresa con fines laborales, sin compartirlo con personas ajenas a la organización: Se recomienda contar con una contraseña de acceso al dispositivo para evitar accesos no autorizados a la información, descargar aplicaciones sólo desde sitios de confianza, contar con una solución de seguridad y cifrar la unidad de almacenamiento de los dispositivos.

7. Utilizar contraseñas fuertes y administrarlas correctamente: Para que una contraseña sea fuerte debe ser fácil de recordar y difícil de descifrar. Es importante no utilizar las mismas contraseñas en servicios laborales y personales y no almacenar las claves en algún lugar visible o de fácil acceso.

8. Evitar acceder a enlaces insertados en correos electrónicos que no provengan de un remitente de confianza: De este modo se minimizará la posibilidad de infectarse con códigos maliciosos y ser víctima de casos de phishing, entendidos como robo de información personal y/o financiera del usuario, a través de la falsificación de un ente de confianza.

9. Cuidar la información de la empresa incluso fuera del ámbito corporativo: Cuando se trasladan documentación y papeles de importancia para trabajar fuera de la organización, se debe tener especial cuidado en lo que respecta al robo o pérdida de los mismos. Además tales documentos deben ser manipulados teniendo en cuenta el nivel de confidencialidad que requieren. En caso de que se utilicen dispositivos de almacenamiento USB o memorias, siempre es necesario realizar un análisis con un antivirus al momento de insertarlos en el equipo (ya sea del ámbito corporativo como en el personal).

10. Utilizar una conexión privada virtual (VPN) al conectarse a redes inalámbricas públicas: De este modo, se aumentará la seguridad en la transmisión de los datos. Si es necesario utilizar el equipo portátil de trabajo conectado a redes WiFi públicas, como por ejemplo las de bares y aeropuertos, se recomienda al usuario no realizar conexiones sensibles como accesos al correo corporativo, debido a que la información puede verse expuesta. En el caso que se utilice un equipo público para trabajar, no se debe acceder a archivos con información confidencial de forma local, de modo de evitar que queden disponibles para ser vistos por cualquier persona que utilice el mismo equipo en un futuro.

“Es importante que los empleados tengan en cuenta que, más allá de la tarea que desarrollen dentro de una compañía, proteger la información confidencial de la organización es una forma de cuidar el negocio y su propio trabajo. Debido a ello, resulta fundamental tanto la utilización de tecnologías para la seguridad como la educación a todos los usuarios que integran la empresa", concluyó Bortnik.

Ilustración: Captura de la portada del informe de ESET

Artículo original en Diario TI