miércoles, 12 de diciembre de 2012

LuminAR, la bombilla que crea un interfaz de realidad aumentada

12 de diciembre de 2012 | 06:22 CET

¿Y si pudieras convertir tu escritorio en una superficie interactiva de realidad aumentada simplemente cambiando la bombilla del flexo? Esto es lo que nos proponen precisamente Natan Linder, Pattie Maes y Rony Kubat, tres investigadores del Departamento de Interfaces fluidos del MIT.

EL nombre del proyecto es LuminAR, y consiste en una lámpara tipo flexo estándar que aúna un pequeño ordenador con conexión inalámbrica, un proyector Pico, y una cámara. Todo ese conglomerado de dispositivos permiten proyectar un interfaz interactivo sobre una mesa de trabajo.

Aunque la primera versión del dispositivo es una lámpara completa y motorizada, el equipo del MIT ya ha logrado su objetivo final, que es reunir proyector, cámara y ordenador en un único dispositivo que se sujeta y alimenta mediante base de tornillo Edison E27 de 27 milímetros o, como dirían nuestras abuelas, una bombilla de rosca gorda de toda la vida.

La idea del MIT es que LuminAR sea un dispositivo independiente, programable y tan fácil de instalar como una bombilla, permitiendo así su instalación en, por ejemplo, tiendas o salas de exposiciones como complemento independiente de realidad aumentada con fines comerciales.

El proyecto aún está en fase de pulir el prototipo final y abaratar sus costes para una eventual comercialización. Esperamos con auténtica impaciencia porque el proyecto tiene unas posibilidades fenomenales.



Vía | Phys.org

Artículo original en Xataka

El modelo chino con procesador quadcore que viene dispuesto a competir con los grandes

Publicado el 12 de diciembre de 2012 por Jaime Domenech   

La compañía china Oppo acaba de dar a conocer su dispositivo Find 5, un teléfono que viene dispuesto a quitar cuota de mercado al Samsung Galaxy S3 y el iPhone de Apple.

Para competir contra ellos ofrece una pantalla de 5 pulgadas con resolución Full HD de 1080p, y por encima de ello sobresale un procesador Snapdragon S4 Pro PAQ8064 de cuatro núcleos acompañado de 2GB RAM.

En el sistema operativo Oppo ha confiado en Android 4.1.2 Jelly Bean y en la conectividad vemos que viene con compatibilidad con tecnología NFC.

Además, aunque las cámaras suelen ser uno de los puntos débiles de los móviles chinos, el Find 5 apuesta por una de 13mp que viene con HDR para fotos y video, siendo el primer dispositivo de su categoría en portar esa tecnología.

Por otra parte, Oppo también ha cuidado el apartado del audio, y el dispositivo apuesta por la tecnología conocida como Dirac HD.

Seguramente la parte donde se encuentra el mayor inconveniente para este smartphone premium es en el almacenamiento, ya que solo viene con 16GB de almacenamiento interno y no trae la habitual ranura microSD.

En cuanto al precio, el modelo Find 5 se venderá desde 499 dólares en Estados Unidos y todavía no se sabe si llegará a mercados como España y Latinoamérica.

¿Os gustaría verlo comercializado en vuestros países?

Artículo original en The Enquirer

Revelan gran brecha en Big Data: menos del 1% de la información digital es analizada

Y menos de un 20% está protegida

[ 12/12/2012 - 09:46 EST ]

El nuevo estudio de IDC Digital Universe revela que únicamente se está aprovechando una parte insignificante del potencial de Big Data, a pesar del aumento imparable de datos útiles.

Diario Ti: EMC Corporation ha hecho públicos los resultados del último estudio Digital Universe, elaborado por IDC y patrocinado por EMC, “Big Data, Bigger Digital Shadows and Biggest Growth in the Far East". El informe revela que, a pesar de la expansión sin precedentes que experimenta el universo digital, debido a los volúmenes masivos de datos generados diariamente por personas y dispositivos, solamente el 0,5% de la información mundial está siendo analizada.


La proliferación de dispositivos como los PCs y los smartphones, el incremento del acceso a Internet en los mercados emergentes y el aumento de datos generados por máquinas, como cámaras de videovigilancia o detectores inteligentes, ha contribuido a duplicar el universo digital en los últimos años, hasta alcanzar los 2,8 ZB. Sin embargo, la consultora predice que para 2020 el universo digital habrá logrado situarse en 40 ZB, una cifra que supera las previsiones que se habían hecho anteriormente en un 14%.

En términos de volumen, 40 ZB es equivalente a:

● 40 ZB es un número 57 veces superior a la cantidad de granos de arena de todas las playas de nuestro planeta. Hay 700.500.000.000.000.000.000 granos de arena en las playas de la Tierra (setecientos trillones quinientos mil billones).
● Si pudiéramos guardar este volumen de 40 ZB en el formato Blue-ray actual, el peso de estos discos (sin embalaje) sería el mismo que 424 portaaviones Nimitz-class.
● En 2020, la cifra de 40 ZB se corresponderá con 5.247 GB por persona.

El informe de este año es el primero en que IDC ha podido determinar donde se origina la información en el universo digital o donde es capturada o consumida por primera vez, poniendo de manifiesto algunos cambios muy significativos durante este proceso. En su sexta edición, el estudio –que mide y prevé la cantidad de información digital creada y copiada anualmente- revela importantes hallazgos sobre los “Big Data Gap", que son: la diferencia entre el volumen de información con un valor oculto y el valor que actualmente está siendo aprovechado, el nivel de protección requerido frente al que se aplica a los datos; y por último, las implicaciones geográficas de los datos a escala global.

Aspectos destacados del estudio

Rápida expansión del universo digital: IDC prevé que el universo digital alcance 40 ZB en 2020, una cifra que supera todas las previsiones anteriores.
○ El universo digital se duplicará cada dos años entre hoy y 2020.
○ Aproximadamente unos 5.247 GB de datos corresponderán a cada hombre, mujer o niño que viva en el planeta en 2020.
○ El principal factor que influye en la expansión del universo digital es el crecimiento de la información generada por máquinas, que se incrementa desde el 11% registrado en 2005 a más del 40% en 2020.

Se pierden enormes volúmenes de información valiosa: Las promesas y expectativas en Big Data se basan en la extracción de valor de ingentes volúmenes de información sin explotar. Sin embargo, la mayoría de estos nuevos datos no están ni clasificados ni estructurados, lo que indica que es muy poco lo que se sabe acerca de ellos.

○ En 2012, el 23% (643 exabytes) del universo digital sería aprovechable para Big Data si fuese clasificado y analizado. Sin embargo, actualmente sólo el 3% de los datos potencialmente útiles está clasificado, y es inferior aún el porcentaje que está siendo analizado.
○ El volumen de datos útiles se expande al ritmo que crece el universo digital. En 2020, el 33% del universo digital (más de 13.000 exabytes) tendrá valor Big Data si es clasificado y analizado.

La mayoría de la información digital no está protegida: El volumen de datos que requiere ser protegido aumenta a un ritmo aún más rápido que el propio universo digital.
○ Menos de la tercera parte del universo digital necesitaba protección en 2010, una proporción que se espera que supere el 40% en 2020.
○ En 2012, mientras el 35% de la información requiere algún tipo de protección, menos del 20% del total está amparada por estas medidas.
○ El nivel de protección varía según las regiones, siendo los países emergentes los que presentan unos niveles más bajos de protección.
○ Los desafíos como las amenazas avanzadas, la carencia de perfiles de seguridad y la escasa adopción de buenas prácticas por parte de usuarios y organizaciones, continuarán agravando el problema.

El cambio de roles geográfico está a la vuelta de la esquina: Aunque el universo digital es un fenómeno reciente y asociado al mundo desarrollado, la sombra proyectada por la población de los mercados emergentes comienza a ser cada vez más alargada.
○ Los países emergentes representaban el 23% del universo digital en el año 2010, un porcentaje que se ha elevado al 36% en 2012.
○ En 2020, IDC predice que el 62% del universo digital se originará en estos mercados emergentes.
○ El desglose actual del universo digital: Estados Unidos – 32%, Europa Occidental – 19%, China – 13%, India – 4%, y el resto del mundo – 32%.
○ En 2020, se prevé que China sola genere un 22% del volumen de datos global.

Otros datos clave:
● Como Cloud Computing juega un rol cada vez más importante en la gestión de Big Data, se prevé un incremento en el número de servidores, que se multiplicará por 10. Asimismo, el volumen de información gestionada directamente por los centros de datos corporativos se multiplicará por 14.
● El tipo de datos almacenados en la nube experimentará una transformación radical durante los próximos años. En 2020, IDC predice que el 46,7% de la información almacenada en la nube va a estar relacionada con el entretenimiento, es decir, que no serán datos corporativos. Los datos de videovigilancia y médicos, así como los creados por ordenadores, teléfonos y electrónica de consumo representarán el resto.
● La cantidad de información almacenada en el universo digital sobre usuarios individuales superará con creces a la que ellos mismos han creado.
● Europa Occidental es actualmente la región del mundo que más está invirtiendo en la gestión del universo digital, con un gasto de 2,49 dólares por GB. Estados Unidos ostenta el segundo lugar con 1,77 dólares por GB, seguido de China, con 1,31 dólares y la India con 0,87 dólares por GB.
● A medida que la infraestructura del universo digital esté cada vez más interconectada, la información no residirá en la misma región donde va a ser consumida, lo cual tampoco será necesario. En el año 2020, IDC estima que cerca del 40% de los datos estarán “tocados" por cloud computing, es decir, que en algún momento entre su creación y su consumo, habrán sido almacenados o procesados en la nube, pública o privada.

Jeremy Burton, Executive Vice President, Product Operations and Marketing, EMC Corporation
“A medida que el volumen y la complejidad del aluvión de datos corporativos aumenta desde todos los ángulos, los departamentos de TI tienen que elegir: o bien sucumben a una parálisis originada por el exceso de información o dan los pasos necesarios para sacar el máximo partido del tremendo potencial que tienen estos torrentes de información. El estudio de este año descubre la enorme oportunidad que existe para aquellos negocios que no sólo han identificado los potenciales beneficios del universo digital, sino que reconocen la importancia de navegar por él con el equilibrio adecuado de tecnología, las mejores prácticas en seguridad y los perfiles necesarios en TI. En EMC estamos posicionados de manera inmejorable para ayudar a los clientes a gestionar, proteger y desbloquear este valor de los datos que cambia las reglas del juego y se traduce directamente en ventajas competitivas".


Artículo original en Diario TI

Cluster de 25 GPU descifra contraseñas de 8 caracteres en 5.5 horas

miércoles, 12 de diciembre de 2012
14:06:00

Recientemente, en una conferencia en Oslo, se demostró que es posible romper contraseñas de 8 caracteres en un período de 5 horas y media [PDF].

En una conferencia realizada en Noruega, se presentó un cluster de 25 AMD Radeon con GPU donde mediante la herramienta Hashcat pudo observarse una capacidad de cómputo de 348.000 millones de intentos por segundo sobre contraseñas con hashing NTLM y 63.000 millones de pruebas sobre claves con hashing mediante SHA-1. NTLM es un protocolo de Microsoft que provee autenticación, integridad y seguridad a los usuarios. Asimismo, SHA-1 es una función criptográfica de hashing utilizada en gran medida por aplicaciones y diferentes protocolos.

¿Cómo se realiza el descifrado de la contraseña?

Existen dos mecanismos conocidos que son utilizados para quebrar una contraseña. El primero de ellos es mediante ataques de fuerza bruta y el otro es mediante ataques de diccionario. El ataque de fuerza bruta consiste en probar posibles contraseñas realizando el proceso de hashing sobre cada intento y comparando contra el hashing de referencia (corresponde a la clave que se vulnera). En el caso de ataques de diccionario, se cuenta con tablas previamente computadas con claves comunes o frecuentemente utilizadas. Este tipo de ataque suele ser más rápido ya que no es necesario computar el hashing en cada uno de los intentos y apela a que en muchos casos los usuarios utilizan contraseñas simples.

Debido a que la tecnología de hoy en día es capaz de elevar las tasas de pruebas a valores muy altos, los especialistas en criptografía han diseñado algoritmos de hashing conocidos como “lentos”. De esta forma el tiempo del proceso de hashing es mayor y dificulta los ataques a los ciberdelincuentes en los ataques de fuerza bruta. No obstante, el cómputo extra necesario para los algoritmos de hashing “lentos” es casi imperceptible para los usuarios que hagan uso de los mismos. Sin embargo, mediante el sistema antes descripto, se demostró que tienen un gran impacto sobre las técnicas de de fuerza bruta disminuyendo en gran medida el rendimiento. Específicamente, el sistema posee un rendimiento de 77 millones de intentos por segundo sobre md5crypt, 364.000 sobre sha512crypt y apenas 71.000 intentos por segundo sobre bcrypt.

Fuente: ESET

Artículo original en Segu-Info