domingo, 29 de diciembre de 2013

iPhone 5c

El nuevo iPhone 5C Libre aterriza para ofrecer aire fresco y una profunda renovación y que disfrutemos de un smartphone de altisima calidad con un diseño mucho más desenfadado. Se trata de una versión mejorada del iPhone 5, porque desde Apple se han encargado de avisar de que ellos no hacen chatarra como muchos de la competencia, sino productos de altísima calidad pensados para satisfacer las necesidades de los usuarios más exigentes. Con esa idea nace el iPhone 5C, un nuevo smartphone con las prestaciones a la última, la más avanzada tecnología pero con un diseño mucho más moderno y atrevido para quienes quieran marcar la diferencia con su iPhone.
Porque en el interior sigue siendo la misma bestia de siempre, con lo mejor en productividad y en especificaciones, como era de esperar, pero el énfasis de este terminal está puesto en su diseño, con unos colores que sorprenden y que están hechos para transgredir las reglas. Para ello han fabricado una carcasa de policarnoato distinta a todas las del resto de terminales, ya que la han combinado y soldado en una misma pieza para dar mucha más calidad. 
Además, el diseño brillante de este terminal se complementa a la perfección con sus medidas, ya que en Apple cuidan todos los detalles y por eso hacen tan pocos terminales, porque son especiales. El nuevo iPhone 5C, por ejemplo, tiene un grosor de solo 9 mm y pesa apenas 132 gramos. Con ello quieren conseguir un agarre y una comodidad perfectas en tu mano para que lo disfrutemos más y mejor en cualquier momento y lugar.
Por otro lado, no podemos hablar de su diseño sin mencionar una de las partes más importantes del mismo, su pantalla. Sin duda, la pantalla es un broche de oro en el diseño, pero también es un elemento fundamental en el iPhone 5C, ya que esta pantalla retina Multitouch panorámica de 4 pulgadas nos dara una experiencia de visualización estupenda y unica, imágenes en alta definición y una resolución de 1136x640 píxeles. Descubre éstas y muchas otras ventajas de la pantalla del iPhone 5C, que cuenta además con cubierta oleófuga antihuellas.
El iPhone 5C está creado para darte la mejor experiencia de usuario, y por eso han querido ponerle un procesador potente, en concreto un Chip A6 que corre mucho pero que gasta poquisima batería. Con este procesador conseguirás mayor rapidez en todas las funciones, incluso podremos usar las aplicaciones más potentes, sin importar la CPU o la GPU que necesiten, jugar con gráficos sencillamente extraordinarios y navegar a gran velocidad por tu smartphone. Una vez que pruebes la rapidez del iPhone 5C, el resto de marcas de móviles nos parecerán simplemente “chatarra”. Porque Apple no se construyó solo sobre un nombre, sino también sobre una experiencia de usuario extraordinaria y ahora quieren que los que no sean profesionales también disfruten de esa experiencia con un smartphone más moderno y especial.
Por otro lado, no nos olvidamos de su batería de larga duración gracias también al bajo consumo de su procesador. Así podremos dar mucha más caña a todas nuestras aplicaciones sin tener que preocuparnos de la batería. Nos ofrece una autonomía de hasta 10 horas de navegación, de conversación o de reproducción de vídeo.
El iPhone 5C no cuenta con una cámara cualquiera, cuenta con iSight, la aplicación de cámara que más rendimiento te ofrece y que garantiza capturar imágenes con una alta definición y una calidad excelente gracias a su lente de cinco elementos y al flash LED, sensor de iluminación, enfoque automático y muchas más funciones extra que ayudarán a obtener resultados profesionales con este smartphone. Además, cuenta con una serie de funciones adicionales que nos harán disfrutar de su cámara mucho más, como el filtro Instant, para dar un aire vintage a nuestras fotos, o Chrome, para resaltar los colores más vivos… las fotos que hagamos con el iPhone 5C servirán directamente para enmarcarlas. Disfrutar de la cámara trasera de 8 mpx de nuestro iPhone 5C para capturar tus mejores momentos y grabar vídeos a 1080 p. También podremos usar la cámara delantera de 1,2 mpx del iPhone 5C para usar FaceTime y hablar por videollamadas con nuestros amigos o contactos, o para hacer fotos delanteras. Todas estas imágenes se verán además con mucha más calidad gracias al sensor de iluminación trasero mejorado que  servirá sobre todo para cuando haya poca luz.
Por supuesto, Apple no podía dejar al público de su nuevo iPhone 5C libre sin la última actualización de sistema operativo, por eso ha incorporado el novedoso iOS 7 en este terminal a 64 bits, para que podamos disfrutar de todas sus ventajas y para que obtengamos el máximo rendimiento con nuestro terminal. Nuevo diseño de los iconos, fondos de pantalla con colores vivos, una interfaz mucho más completa, en Apple han querido esmerarse y no dejar de lado a su iPhone 5C para que consiga óptimos resultados. El nuevo sistema operativo iOS 7 es fácil de usar, divertido y lleno de color, y lo tenemos con el iPhone 5C.
Y lo mejor de todo es que iOS es el sistema operativo que el resto de compañías quisieran tener y que todos tratan de imitar. Es una plataforma única en la que encontraremos una serie de aplicaciones integradas que nos ayudarán a utilizar el smartphone desde el primer minuto. Aunque nunca hayamos tenido un iPhone, su uso nos resultará lo más sencillo que existe, porque en Apple solo quiere que disfrutemos. Además de las aplicaciones integradas, encontraremos un universo de aplicaciones, gratuitas y de pago, disponibles en App Store, la tienda online que nadie consigue superar con el mayor repertorio de aplicaciones de mejor calidad para llenar nuestrou smartphone. Cualquier aplicación en la que estémos pensando seguro que la encontraremos en la App Store.
Por supuesto, al iPhone 5C no le faltan funciones de conectividad como WiFi y 4G, pero además, según los portavoces de Apple, el iPhone 5C lleva más soporte LTE que ningún otro smartphone en el mundo. Para que puedas conectarte a internet a velocidades de vértigo y disfrutar mucho más de las páginas web.
Sin duda un gigante que es la envidia de todos los fabricantes de smartphones mundiales...una joya en nuestras manos...alguien da mas...simplemente NO!!!

jueves, 12 de diciembre de 2013

La importancia de un blog para las Empresas

Que Internet ha revolucionado la relación de las empresas con los clientes; que han dejado de ser pasivos oyentes para convertirse en activos e influyentes actores que se informan y comparten sus opiniones y experiencias con las marcas ya no le cabe duda a nadie.
Y en esto han tenido gran protagonismo los blogs:
Hoy en día, cualquiera puede, de forma gratuita, crear su propio blog y comenzar a escribir sobre aquello que considere oportuno. Esto está democratizando la información y permitiendo que surjan bloggers influyentes, creadores de tendencias y líderes de opinión que algunas empresas están comenzando a integrar en su estrategia de construcción de marca.
Al contrario de lo que ocurre con las páginas webs tradicionales, más estáticas y cuya información apenas se modifica, los blogs generan contenido renovado, en un formato sencillo y con un lenguaje cercano; lo que los hace muy atractivos para los usuarios.
Esta mayor flexibilidad permite actualizar las estrategias de comunicación de las empresas con todas las personas con las que interactúa: clientes, empleados, proveedores, prensa y con la comunidad que vive en la zona donde su actividad se ejerce.

CLIENTES
Desde la publicación de noticias sobre la actividad de la empresa (eventos, actualidad, lanzamientos, etc.) hasta el empleo del blog como plataforma para la educación de los consumidores (consejos, ideas, etc.) los blogs nos ofrecen infinitas opciones para ofrecer contenido atractivo con el que atraer a todo aquel que esté interesado en los productos y servicios que la empresa ofrece.

PRENSA
Además de facilitar el contacto con la prensa, permite proporcionar información de interés sobre la actividad de la misma. Con lo que aumenta la presencia en los medios y la consecuente publicidad gratuita.
Hoy en día, resulta prácticamente imposible controlar lo que se dice de tu marca en Internet. Sin embargo, al disponer de un blog propio cuentas con una plataforma perfecta con la que responder a las críticas y acusaciones que sobre ti se viertan.

COMUNIDAD
Las empresas deben ser responsables con como su actividad afecta a los habitantes de las zonas donde su actividad se desarrolla.
Un blog constituye una oportunidad perfecta para informar sobre todo lo que impacta a dichas comunidades (nuevas tiendas, puestos de trabajo, etc.).
Conocer la opinión, sugerencias y temores de dichas personas y poder responderlos, supone la mejor forma de humanizar las marcas y aumentar su simpatía.
Permitir a los consumidores interactuar con la marca y con otros usuarios puede generar valiosas comunidades vitales para la supervivencia de la empresa.

EMPLEADOS
Al igual que los tradicionales comunicados internos, los blogs corporativos permiten comunicar rápidamente todo aquello que pueda ser de interés para los empleados.
Además, puedes permitir que todos los trabajadores compartan sus opiniones y experiencias en el blog. Con lo que se convierte en una herramienta muy útil para aumentar el compromiso y la identificación de los empleados con la empresa.

Como vemos tener un blog ofrece un gran número de beneficios para la actividad tradicional de las empresas. Además de todo lo mencionado hay que tener en cuenta que constituye:
Una gran herramienta para mejorar el posicionamiento en los buscadores
Un perfecto catálogo en el que ofrecer tus productos y servicios en un formato mucho más natural y atractivo para los usuarios
Una potente herramienta para la construcción de las marcas.
Una atractiva plataforma con la que aumentar el tiempo de contacto entre los consumidores y las empresas
Son ya muchas las empresas que están sabiendo aprovechar este potencial para propagar estilos de vida y convertirse en influyentes prescriptores; yendo su relación con los consumidores más allá del simple intercambio comercial.
Hoy en día tener una página web no es una novedad sino algo que se da por supuesto. Difícilmente conseguirás que la gente acuda a visitar tu página con cierta periodicidad si no renuevas el contenido y te limitas a mostrar tus productos.
Aprende de todas las empresas que están sabiendo aprovechar el potencial de Internet para convertirse en auténticos prescriptores. No limites la relación con tus clientes a una mera publicidad unidireccional. Consigue aportar valor y crear un estilo de vida propio. 

Las redes sociales y las Empresas (Twitter)

Muchos se preguntan para que se puede emplear Twitter para una Empresa
 Twitter se ha convertido en una de las herramientas más populares de Internet, con cerca de 45 millones de usuarios en todo el mundo. Su éxito ha derivado en un sinfín de aplicaciones, muchas de ellas en el ámbito empresarial. Con este documento pretendemos facilitar la vida a las empresas y profesionales que se acercan a Twitter con el objetivo de sacarle el máximo partido posible. De hecho, un reciente estudio de Burson-Marsteller muestra que el 54% de las principales 100 empresas americanas emplea twitter. Puedes descargarlo aquí en formato pdf.
¿Por qué el éxito de Twitter?
La principal característica de Twitter es su simplicidad. Escribir frases de no más de 140 caracteres está al alcance de cualquiera y más aún si su particular informalidad permite el uso de todo de abreviaturas, al igual que sucede en el mundo de los SMS. La web también es tremendamente sencilla, pues tan sólo tiene una caja de texto en la que escribir. No hay que acostumbrarse a un interfaz mucho más complejo, como sí sucede en redes sociales más sofisticadas.
En segundo lugar, Twitter genera lazos emocionales entre los usuarios, que pueden sentirse casi como si estuvieran juntos físicamente, aunque tan sólo estén unidos por un ordenador o móvil. Dicho de otra forma, Twitter genera cuadrillas de personas que se leen entre sí y que, por tanto, se sienten más cercanas. La reciprocidad intrínseca al sistema de Followers (seguidores) y Followed (seguidos) genera todavía más conexión entre las personas.
Y en tercer lugar, su poder de movilización es extraordinario, tal y como ha quedado demostrado recientemente en Irán, al actuar como agregador de estudiantes que protestaban contra el funcionamiento electoral. En ámbitos más mundanos, la capacidad de Twitter para extender rumores lo convierten en una impresionante plataforma de “cotilleo”. No hay que olvidar que la comunicación es una necesidad humana. No es de extrañar, por ello, que la revista Time abriera recientemente su portada con un reportaje titulado “Cómo Twitter va a cambiar el mundo en que vivimos“.
Uno de los usos más habituales es el envío de información por parte de medios de comunicación. Twitter es ante todo un sistema de difusión rápida de información a mucha gente a la vez. De hecho, los estudios muestran que el 10% de los usuarios envían el 90% de los mensajes de Twitter, cuando en una red social ordinaria ese mismo 10% apenas produce el 30% del contenido. ¿Qué ocurre? Simplemente, que hay muchos robots enviando noticias de manera automatizada.
Pues bien estos son los usos más habituales:
1. Relaciones públicas. Es decir, extender los mensajes de las empresas al máximo posible. Como normalmente se trata de notas de prensa, deben adaptarse sustancialmente para su inclusión en 140 caracteres y para que no parezca simple propaganda, lo que generaría el rechazo de los posibles seguidores. Este es el principal uso que las empresas hacen hoy de Twitter. Según un estudio de Burson-Marsteller, el 94% de las principales empresas americanas que emplean Twitter lo usan para transmitir noticias y similares. El 67% para atención al cliente y el 57% para comunicar ofertas especiales.
Relacionado con lo anterior, uno de los principales objetivos del uso de twitter por parte de las empresas es dar una voz humana e informal a una entidad que normalmente tiene una imagen un tanto artificial. De esta forma, se da credibilidad a los mensajes corporativos y se les da mayor visibilidad. Esto se traduce a la larga en mayor fidelidad de los consumidores y atracción de talento. En el caso de un profesional que tuitea sobre su trabajo, la principal contrapartida que obtendrá es que se convertirá en la referencia en esa temática.
2. Atención al cliente. Es un fenómeno en plena efervescencia, ya que muchos consumidores tuitean problemas con los productos o servicios que adquieren. Para las empresas es importante atender estas quejas y tratar de mostrar cercanía con los usuarios y Twitter se convierte, con la ayuda de un programa adaptado para ello (por ejemplo, CoTweet o Salesforce), en un gran CRM, un software para gestionar la relación con los clientes.
Relacionado con lo anterior, cada día se emplea más Twitter para “palpar el ambiente” y conocer qué dice la gente sobre un producto o una marca. Para ello, basta con hacer una simple búsqueda en Twitter y examinar lo que se dice de esa marca o producto. Esta atención no tiene por qué estar relacionada con quejas y reclamaciones y puede emplearse para captar ideas relacionadas con el negocio de una empresa. Entre las empresas que hacen este tipo de uso de Twitter destacan varias aerolíneas, la cadena de tiendas BestBuy, Ford o el Bank of America.
3. Comercio electrónico. El caso de Dell es uno de los más comentados de uso empresarial de Twitter, ya que la firma de informática ha conseguido vender más de un millón de dólares en ordenadores en un año a través de las ofertas que lanza a través de Twitter. De todas formas, el potencial de Twitter para el comercio electrónico es enorme. No hay que olvidar que muchos usuarios emplean habitualmente esta herramienta para pedir recomendaciones sobre productos o servicios que tienen que adquirir. Aprovechar ese cruce de información para facilitar el acceso a tiendas online no es descabellado. Sin ir más lejos, ya existe un sistema para tuitear cada vez que alguien compra algo y otro para seguir todo tipo de ofertas.
4. Incrementar la productividad interna. Los fallos de comunicación en muchas organizaciones generan confusiones y retrasos y, por ende, importantes costos adicionales. Emplear herramientas como Twitter o Yammer, una versión de uso interno en organizaciones, tiene por ello todo el sentido del mundo. Permite que todos los miembros de una empresa sepan en tiempo real qué están haciendo los demás, evitando así muchas de las confusiones que se producen en el día a día. Entre las empresas que hacen este tipo de uso de Yammer destacan Telefónica I+D o Red.es.
5. Realizar pagos. Y es que han surgido varias empresas que gestionan pagos a través de Twitter, como Twitpay, Tipjoy oTwippr y que se quedan con una parte de la transacción como comisión por la gestión. Paypal, un sistema de pagos por Internet propiedad de eBay, también está interesada en este tipo de uso de Twitter.

Las redes sociales y las Empresas (Facebook)

Vamos a mirar desde el punto de vista de una empresa, negocio, marca, instituto, lo que nos puede aportar Facebook. Nuestros clientes potenciales están en Facebook, por lo que nos conviene estar. ¿Será cuestión de moda? El tiempo lo dirá, pero de momento sigue dando fuerte y parece que es la tendencia. Además si utilizáis Facebook os daréis cuenta que ya hay muchísimos profesionales que están ahí dando a conocer sus productos, sus cualidades, ofrecen ofertas a los seguidores de página, escuchando y respondiendo a sus inquietudes. ¿Qué tipo de gente podemos encontrar en Facebook? En Facebook hay perfiles de gente de todas las edades y de todo tipo. Eso sí, podemos decir que la gente menor de 20 años tiende más a utilizar Tuenti como red social. ¿Qué podemos buscar como empresa en Facebook? Otro medio de difusión de nuestros contenidos. Si tenemos página web lo que publiquemos en nuestra página web, lo podemos publicitar en Facebook también. Pero hay que tener claro que no sólo se debe usar como un medio para dar información, sino que también hay que estar atento a lo que nos dicen, y responder a los seguidores que nos hagan comentarios, tanto si son alabando nuestros productos, como si son criticas hacia esos mismos productos o nuestros servicios, por eso debemos tener claro que tenemos que aceptar las criticas como una manera de saber que puede fallar en nuestra empresa. Es la hora de relacionarnos con ellos. Si no tenemos página web, Facebook puede hacer prefectamente de nuestra página web. Si nos animamos, podemos hacerla nosotros mismos (algo sencillo, pero útil) o podemos contratar el servicio de una empresa dedicada a estos temas, para que nos haga una página más funcional (con aplicaciones, buen diseño.. ). Veremos cómo hacerla nosotros mismos, de modo sencillo. Buscar aportaciones de la gente que está en la red. Por poner un ejemplo, digamos que somos los fabricantes de unas zapatillas de ciclismo. ¿Quién entiende más de zapatillas, nosotros como fabricantes y expertos en el tema, o nuestros clientes que pueden llegar a ser miles? No tenemos ninguna duda que nuestros clientes. Ellos son los verdaderos expertos: son los que sufren o disfrutan con las zapatillas, los que saben que en determinados momentos y con ciertas temperaturas tal o cual zapatilla no transpiran bien, o que la forma de ajustar las zapatillas no es del todo eficaz, o que se rompe mucho en determinada zona.. Son los que día a día prueban nuestro material y nos pueden hacer aportaciones muy interesantes, las cuales si escuchamos y somos capaces de resolver podemos utilizar para mejorar nuestro producto, sacar nuevas lineas de producto que nos han dado a entender que triunfarían... Nos harán darnos cuenta de pequeños detalles que no habíamos intuido, nos abrirán los ojos y veremos claro en qué línea podemos trabajar... La inteligencia colectiva funcionando para nosotros. Pero... para eso tenemos que estar dispuestos a escuchar y a responder... generar lazos emocionales con el cliente Un medio para "descubrir a buenos profesionales" que puedan servirnos para entrar a formar parte de nuestra empresa. Muchos somos los que ya utilizamos Facebook para pertenecer a grupos de nuestro interés profesional o a seguir de cerca iniciativas de personajes de nuestra red de influencia. Una empresa puede encontrarnos aquí, seguirnos un poco y si le interesamos llegar a contratarnos. Eso sí, más que Facebook para este tipo de actividades está Linkedin Encontrar socios comerciales: al final gente que esta trabajando en cosas parecidas a nosotros puede estar siguiéndonos, y resultarle interesante nuestro trabajo. Podríamos llegar a encontrar socios comerciales de este modo. Para este caso Linkedin es más adecuado también, pero puede utilizarse Facebook. Podemos mirar qué hace nuestra competencia. Nuestra competencia quizá ya esté en Facebook. Podemos ver qué es lo que hace, cómo lo hace... Saber qué es lo que está pasando en nuestro sector. Buscar páginas o grupos en Facebook que estén relacionados con el sector de nuestra empresa... y ver qué es lo que está pasando.. ¿Qué tenemos que estar dispuestos a hacer como empresa? Hoy en día cada vez nos estamos alejando más del método tradicional de publicidad. Hasta hace poco las empresas daban a los usuarios información y hasta ahí llegaba la relación con ellos. Hoy en día las empresas siguen dando información, pero tienen que estar preparadas a escuchar las respuestas, comentarios, quejas de sus clientes... y a reaccionar ante ellas. Hay que establecer una conversación con nuestros clientes Pensar en qué cosas podemos hacer para que la gente aporte Meter información útil para el usuario y que no sólo sea publicidad de nuestra empresa. Si crees que tu empresa tiene sitio en Facebook, y seguro que lo tiene... perfecto. A lo largo de sucesivos post veremos un poco la diferencia entre Páginas y Grupos , y cómo crear y administrar un Grupo y una Página. ¿Por qué sigue la gente a empresas / marcas en Facebook ? Según un estudio de eMarketer de Febrero del 2010, aquí tenéis las razones por que la gente de EEUU se hace Fan de las páginas de empresas / marcas.. Para recibir descuentos y promociones (25%) Soy cliente de la compañía ( 21%) Para que otros vean que me gusta esta marca (18%) Es divertido y entretenido (10%) Para ser el primero en conocer la información de la marca (8%) Tener acceso a contenido exlusivo (6%) Alguien me lo recomendó ( 5%) Para ser parte de una comunidad de ideas afines (4%) Trabajo para / en la compañía ( 2%) Tengo valores en la compañia (0%) Ninguna de estas (0%) Conclusión Hay que ofrecer al usuario contenido, relevante e interesante, no sólo de tema de negocios, también tema lúdico o sin más información relevante que no sea la típica publicidad de la marca. Cuanto mayor valor demos al usuario, mejor será la imagen que este tendrá de nosotros. Y además tenemos que establecer una comunicación bidireccional con él.

viernes, 22 de noviembre de 2013

Windows Phone, Android, iOS...Cual elegir?

En el mundo de los smartphones, todavía podemos encontrar hasta 10 sistemas operativos diferentes. Bada, Symbian, Blakberry y los sistemas propietarios de los terminales de gama de entrada, conviven con los más extendidos Windows Phone, iOS y sobre todo Android. 

Es evidente que Android es el OS móvil número uno en el mundo, en parte porque ha sabido ganarse el favor de los usuarios versión tras versión y, para que negarlo, porque está presente por igual en los terminales más económicos y en los dispositivos de gama alta.

Dentro de esta "foto" estadística, hoy vamos a comparar Android 4.1 de Google, iOS 6 de Apple y Windows Phone 8 de Microsoft, tomando como referencia tres aspectos generales importantes: el interfaz de usuario, la navegación web y los mapas
Pese a la tan cacareada segmentación del sistema móvil de Google (cada fabricante de smartphones incluye su personalización), Android 4.1 Jelly Bean tiene una apariencia "muy limpia" visualmente hablando, y cuenta con las mejores apps de mapas, correo, mensajería, redes sociales o buscadores, instaladas de serie. Aquí es donde se nota la mano de Google, con sus maps, gmail, google+ y demás software sobresaliente, uno de los verdaderos pilares del éxito de este sistema. 

El caso es que cualquier usuario que se inicie con los móviles inteligentes, necesitará más horas de aprendizaje para dominar un Android que si lo situamos frente a un terminal  iOS o Windows Phone. Este punto no debe interpretarse negativamente, porque ese mismo usuario quedará encantado con las enormes posibilidades de personalización que le ofrece el sistema de Google, algo que en sistemas más cerrados como iOS es inimaginable por el momento.

El iOS de Apple se ha convertido en el Symbian de nuestros días. Me explico: todo el mundo se sabe de memoria el menú, dónde están los iconos, cómo configurar cada opción. Los cambios de interfaz entre versiones de iOS son mínimos y no afectan a la navegación entre las opciones del menú. Este apartado es bueno, porque podremos cambiar de iPhone como de calcetines y seguiremos sabiendo utilizarlo en segundos, pero también tiene su parte "menos positiva", la innovación es mínima y puede llegar a aburrir al más conservador.
Windows Phone 8 quizá sea el sistema más sencillo de utilizar para un usuario que no haya tocado un smartphone en su vida. La disposición de los iconos de las apps y las ventanas activas ("Live tiles") dejan atrás el clásico concepto de carpetas y archivos de los primeros Windows para equipos de sobremesa. La personalización es otro aspecto que se ha cuidado al detalle en WP8: podremos cambiar el menú a nuestro gusto con dos toques, para destacar las apps que más vayamos a utilizar, sin complicaciones.
Mientras que Android 4.1 incorpora Google Chrome de serie junto al navegador convencional del sistema, y el iOS de Apple "monta" la enésima versión de su Safari, Microsoft apuesta por incluir Internet Explorer 10 en Windows Phone 8. En este caso todas las opciones son buenas, aunque nosotros nos quedamos con Google Chrome, por usabilidad y ser uno de los mejores a la hora de simultanear la navegación entre PCs, tablets y smartphones. Una cuestión de gustos, nada mas. 

Afortunadamente, si ninguno de estos navegadores nos convence, tenemos la posibilidad de descargarnos multitud de "browsers" gratuitos para todos los sistemas, como por ejemplo Firefox, Dolphin o Skyfire.
La app de mapas de Windows Phone es "made in" Nokia, con cartografía propia de Navteq, un referente de este mundillo desde hace muchos años. Nokia mapas no es buena, es simplemente la mejor app de mapas. Tiene opciones en tiempo real de información del tráfico, las mejores capas de fotografía aérea, navegación con transporte público e infinidad de opciones de todo tipo para llegar al destino con garantías. Además esta app permite descargar los mapas en el móvil, para que puedan consultarse sin necesidad de conectar a internet. 

Google maps es otro referente en esto de los mapas y la navegación GPS desde el móvil. La precisión de su cartografía, el módulo de Street View, la navegación puerta a puerta y la posibilidad de descarga de mapas, convierten a Google maps en una app imprescindible para cualquier plataforma que se precie.

El iOS 6 de Apple quedaría en tercer lugar, lejos de las dos primeras opciones comentadas. Seguro que la mayoría de vosotros conoce el motivo, pero para el resto aquí va la explicación. El iPhone de Apple siempre había contado con la aplicación de mapas de Google, desde sus inicios. Con la llegada de iOS 6 la cosa cambió, y vimos como su lugar era tomado por una app todavía inmadura que "no sabía" procesar los datos facilitados por la prestigiosa Tomtom. 

Mientras tanto, Nokia ha lanzado una versión reducida (en funcionalidades) de sus mapas para iOS con el nombre de Nokia Here, y Google está a punto de subir su nuevo Google maps al App Store. Dos buenas noticias para los usuarios de iOS, a la espera de que Apple solvente el problema de sus mapas con una actualización.
Resumen

Android de Google es el sistema más extendido en el parque móvil mundial, el más abierto al desarrollo y el que tiene una ingente cantidad de apps interesantes que no vamos a encontrar fuera de Google Play. Además, la comunidad de Android en internet es tan grande, que nos garantiza una larga vida del sistema sin necesidad de esperar a las actualizaciones de los fabricantes de dispositivos.

El iOS de Apple es el sistema con más aplicaciones disponibles (aunque tiene a Android pisándole los talones), el más seguro, el más estable y el que ofrece las actualizaciones de sistema de forma más transparente. Su interfaz de usuario es la más sencilla, y posiblemente también la mejor en términos de usabilidad. 

Windows Phone 8 es el que mejor responde en dispositivos con procesador modesto y escasez de memoria RAM, el más fácil de usar, tiene los mejores mapas y una estupenda integración multiplataforma con Windows 8, además de con la comunidad de jugadores de Xbox. Nokia, HTC y Samsung son algunos de los fabricantes punteros que están apostando por él, veremos cómo avanza en 2013.

Fuente: ohmyphone

martes, 1 de octubre de 2013

iPod Classic

El iPod classic es el nombre que Apple dio al modelo que mantiene la forma y modo de uso del iPod original. Este modelo que fue lanzado en septiembre de 2007 y es la sexta generación del iPod. El iPod classic actualmente se ofrece únicamente con una capacidad de 160GB.
Los 160GB de capacidad del iPod classic con suficientes como para almacenar 40.000 canciones o 200 horas de vídeo. Con el iPod classic se adopta una nueva carcasa totalmente metálica que se ofrece en color negro o plana y se abandona al característico color blanco del iPod.
En el año 2007 cuando Apple introdujo por primera vez al iPod classic, este se ofrecía con capacidades de 80 GB y 160 GB el modelo de 80 GB era más delgado que el de 160GB.
En el año 2008 los dos modelos de iPod classic fueron unificados en un único modelo de 120GB que era tan delgado como el modelo de 80GB que reemplazaba. En septiembre de 2009 la capacidad del iPod classic fue aumentada a 160GB
El iPod classic utiliza la nueva interfaz mejorada e incluye a Cover Flow, un sistema que te permitirá desplazarte por tu colección de música viendo las carátulas mediante la rueda de clic. Además con el iPod classic se incluyen tres juegos: iQuiz, Vortex, y Klondike. Otros juegos pueden adquirirse en el iTunes Store.
La batería del iPod classic tiene una autonomía de hasta 36 horas de reproducción de música o 6 horas de reproducción de vídeo.

jueves, 26 de septiembre de 2013

Serie de Tv: Hermanos de Sangre (Band of Brothers)

En opinión de muchos esta serie de TV es la mejor producción bélica de todos los tiempos. "Hermanos de Sangre" cuenta la historia de la compañía E, del 506º regimiento de la 101ª división aerotransportada durante la Segunda Guerra Mundial. Pero cuando digo "cuenta", yo creo que me quedo corto. Es una autentica epopeya que muestra cómo debe de ser hecha una serie de historia para la historia.
La historia de la compañía Easy durante la batalla de Normandía ha sido reflejada en documentales y libros. Stephen Ambrose tuvo la brillante idea de utilizar esta compañía como ejemplo arquetípico de una unidad de combate norteamericana en la Segunda Guerra Mundial. Así que contó desde su origen en el campo de entrenamiento de Currahee hasta la toma del "Nido del Aguila". El libro es de 1992, y no fue un éxito de ventas, aunque tampoco se vendió mal. Si fue un éxito de ventas su siguiente libro dedicado al Dia-D, que llego a ser nº1 en la lista del New York Times. De hecho Ambrose participó como historiador asesor en el rodaje de "Soldado Ryan".
Con el éxito de "Soldado Ryan" y el renacimiento del cine bélico, Tom Hanks y Spielberg tuvieron la idea de crear una miniserie para la TV basándose en el libro de Ambrose sobre la compañía Easy. Evidentemente, al ser una serie de TV los actores no son grandes estrellas. Pero lo importante es que sea lo más real y exacto históricamente posible, y además que sea entretenido.
El punto de realidad y exactitud histórica lo consigue muy bien la serie cuando nada más empezar se ve a los protagonistas con sus 80 años a cuestas recordar sus experiencias. Inmediatamente comienza el capítulo que va a mostrarnos esas experiencias. Y sabemos que los actores están interpretando a los abueletes del comienzo. Se ha criticado la serie por ser sensiblera, patriotera y pro yanqui. Supongo que por eso los de T5 la pusieron en un horario intempestivo. Yo creo que es el retrato más exacto (si exceptuamos las imágenes reales de los documentales) sobre como debían de pensar, sentir y luchar los norteamericanos en el frente europeo.
Como en todo, también tiene algún error o fallo. En mi opinión, lo que menos me gusto de la serie es la escena de los Dakota sobrevolando Francia en la noche del 6 de junio. El despliegue de antiaéreos me parece exagerado. No parece la costa francesa, sino un raid sobre Berlín. Pero el error más famoso es el que concierne al personaje de Albert Blithe en el episodio de "Carentan" (el tercero). Al final dicen que muere por un francotirador. Bueno, pues al parecer sobrevivió y siguió en los paracaidistas. Llegó a sargento y murió en Alemania en 1967 siendo todavía soldado. Se le enterró en el cementerio de Arlington.
Podría seguir escribiendo y escribiendo sobre esta serie y los múltiples detalles y situaciones que me han gustado o me han llamado la atención. 
Los diez episodios de "Hermanos de sangre" son:

1.- Currahee: Dedicado al campo de entrenamiento. Muy buena la representación de que una cosa es un mando de campo de entrenamiento y otra muy distinta un mando de combate.

2.- Day of Days: el Día D por supuesto. La escena del asalto a la posición de los cañones es increíble.

3.- Carentan: La lucha en el bocage francés para salir de Normandía.

4.- Replacements: Market Garden. La escena de los tanques ingleses negandose a disparar por miedo a producir daños a la propiedad civil es todo un resumen de lo mal que lo hicieron en esa operación. No me extraña que en el Reino Unido no les guste mucho la serie.

5.- Crossroads: Sigue la lucha en Holanda y Winters asciende de grado. El capítulo acaba con la movilización por la ofensiva de las Ardenas

6.- Bastogne: El cerco. Los horrores de la guerra sobre la población civil.

7.- The breaking point: 2º parte de la batalla de la intervención de la 101 en las Ardenas. El bombardeo del bosque de Foy y la toma del pueblo del mismo nombre.

8.- The last patrol: Los últimos días de lucha. La Easy esta en Haguenau, una villa de Alsacia. Lo mejor del episodio es ver como uno de los veteranos del Día D herido durante Market Garden y que tiene la fortuna de perderse el cerco de Bastogne es visto como un "novato" por los integrantes actuales de la Easy, incluso por los que no lucharon el Día D.

9.- Why we fight: La Easy en Alemania. Los campos de concentración y la población civil alemana.

10.-Points: Paisaje después de la batalla. La toma del "Nido del aguila". El miedo de tener que continuar luchando pero ahora en Japón. El alivio que sienten cuando saben que Japón se ha rendido gracias a la bomba atómica. La presentación de los personajes reales y de los actores que los encarnan.

Resumiendo, una obra maestra.

Major Reisman
http://major-reisman-cine-belico.blogspot.com.es/



martes, 10 de septiembre de 2013

S.O. Linux

La historia de los sistemas operativos (O.S.) comenzó a finales de los 50, con simples pruebas probando programas “batch” los cuales son programas que no interactúan con el usuario en absoluto. Lee todas las entradas de un fichero y envía todas las salidas a otro fichero (normalmente una impresora). Así era como los ordenadores solían trabajar en aquella época
Ya en los sesenta todo esto empezaría a cambiar. Se idearon los sistemas para que varios usuarios pudieran estar usando el mismo ordenador desde distintos terminales. Dichos sistemas se llamaron de tiempo compartido y eran bastante más complejos que los anteriores sistemas “batch”.
Durante toda la decada de los sesenta hubo muchos intentos de construir sistemas de tiempo compartido. Muchos fueron proyectos de investigación de universidades y otros solamente comerciales. Uno de los más innovadores en aquel momento fue el proyecto Multics. 
Este poseía un sistema de ficheros jerárquico, lo cual se ha utilizado en sistemas operativos más recientes.
Uno de los participantes en este proyecto, Bell Labs, se retiró y crearon su propio sistema operativo llamado Unix.
Unix se distribuyo originalmente de forma gratuita y ganó mucha popularidad en las universidades. Mas tarde, y con la implantación del protocolo TCP/IP fue elegido como sistema operativo en algunas estaciones de trabajo.
En Octubre de 1991 entra en escena Linux creado por Linus Torvald, este había usado Unix en la universidad de Helsinki, y quiso tener algo similar en el PC de su casa. Las alternativas comerciales eran demasiado caras, aunque existía una versión reducida de Unix llamada Minix, la cual finalmente descartó y decidió empezar a escribir su propio sistema operativo. Después de la primera publicación, atrajo la atención de la gente relacionada con la informática y ordenadores en general.
Sin embargo Linux solamente es el “Kernel” del sistema operativo. El “Kernel” es la parte que hace que los programas funcionen, es decir, es la base donde todo lo demás opera. Habilita tareas de multiusuario, gestión de dispositivos hardware y permite a las aplicaciones realizar sus funciones. Linux dispone además de un intérprete de comandos (shell) que permite interactuar con el OS y escribir scripts, que son pequeños programas para automatizar tareas.
Durante 1992 y 1993 Linux recopiló todas las funciones necesarias requeridas para trabajar como una alternativa a las estaciones Unix, incluyendo el protocolo TCP/IP y un sistema gráfico (X Windows). Linux había recibido la atención de la industria, y algunas pequeñas compañías empezaban a desarrollar y distribuir Linux.
Entre las aplicaciones que tiene Linux, quizás la mas destacada es el hecho de que es un sistema gratuito, llamado de “código libre”. Uno de los factores es la disponibilidad del código fuente del sistema, mas una licencia que permite la modificación y su distribución. Cualquiera puede arreglar un problema del OS y añadir o desarrollar conceptos si creen que seria de utilidad. De esta manera uno puede convertirse en parte de la historia y desarrollo de Linux.
Linux es un sistema operativo multitarea y multiusuario, basado en Unix, de código libre y puede trabajar en multiples plataformas hardware.
Como se ha comentado, una de las cosas que hace a Linux tan potente es su capacidad multitarea y multiusuario. Linux, al igual que Unix, es de código libre y puede trabajar en múltiples plataformas hardware y  fue diseñado desde el principio para correr múltiples procesos independientes entre ellos. Para realizar esto se necesita una buena gestión de la memoria.
Para instalar Linux tienes primero habría que elegir una distribución. Una distribución Linux es el “Kernel” mas un programa de instalación, y algunas aplicaciones personalizadas que hacen todas las funciones. Hay cientos de estas distribuciones, algunas más populares que otras.
Todas las distribuciones usan prácticamente el mismo software pero varía en qué tipos y versiones incluyen, como se configura, se instala y se gestiona. Por ejemplo, OpenOffice, Mozilla (navegador), KDE y GNOME (entorno visual) y Apache (servidor Web) funcionarán en todas las distribuciones. Las versiones mas populares son: Red Hat, SuSE, Debian, Fedora y Mandrake. Para los principiantes que quisieran comenzar a utilizar este OS, es aconsejable utilizar la distribución Mandrake, al ser la mas sencilla de cara al usuario.
Hay distribuciones que tiene la particularidad de no tener que instalarse ya que trabajan directamente desde el CD-ROM como es el caso de de Knoppix. Esto es bastante útil en el caso de que no tengamos mucho espacio en el disco duro, y que queramos compartir Linux y Windows en el mismo pc.. 

martes, 3 de septiembre de 2013

Blackberry Q10

A cualquiera que le muestres hoy en día un smartphone con teclado físico te mirará con cara de asco antes de lanzártelo a la cabeza. Cualquiera menos un tipo muy concreto de usuario: el adicto al BlackBerry. Para ellos y ellas, para los que siempre han echado pestes contra las pantallas táctiles, BlackBerry lanzó el Q10, una evolución de la mítica Bold o Curve pero con nuevo sistema operativo y hardware renovado. El problema: ¿cuántos adictos al BlackBerry de siempre quedan ya en el mundo? Cada vez menos. El Q10 es un buen móvil, lo hemos probado a fondo durante varias semanas y te contamos debajo todas las impresiones. Pero esa no es la clave. La clave es que el móvil de teclado físico y pantalla diminuta es ya una idea del pasado.
El diseño del Q10 es de alta calidad, pero no es el fuerte del teléfono. Lo primero que sorprende al cogerlo es la desconexión que hay entre la parte frontal (con esquinas redondeadas perfectamente acabadas y un teclado espectacular) y la trasera, con una carcasa de fibra trenzada de vidrio. La parte posterior flojea, y no por el material (la fibra trenzada, aunque parecida al plástico, es más resistente, suave y casi almohadillada al tacto), sino por la cubierta que se desliza para extraer la batería. Su encaje en el teléfono es muy mejorable: deja un hueco entre la carcasa y la batería que da una sensación hueca a la parte posterior del móvil.
Con 10,35 mm, el Q10 es un poco más grueso que el Z10, pero en absoluto pesado (139 gramos). En el frontal, la pantalla táctil de 3,1 pulgadas super AMOLED de resolución 720 x 720 píxeles te hará añorar las pantallas mayores si vienes de smartphones táctiles, o te parecerá exactamente igual a la del Bold o el Curve si vienes de esos modelos.
La diferencia ahora en diseño está en el teclado. Cuatro bandas metálicas rectas separan las líneas de teclas que son, con diferencia, lo mejor del teléfono. Si, como yo, saltaste de teclados físicos a táctiles hace ya unos años, volver al principio te parecerá absurdo. Pero esa es la magia de BlackBerry: a las pocas horas tus pulgares habrán rejuvenecido y estarás escribiendo tan rápido como en una pantalla táctil. Lo malo: es algo que, por suerte o por desgracia, ya no marca la diferencia. Cuando la mayoría de usuarios prefieren una pantalla grande para navegar o ver vídeos a sus anchas y un teclado decente, en lugar de un super-teclado y una pantalla minúscula, no puedes luchar contracorriente.
Sobre el nuevo BlackBerry 10 te hablamos de ello en el análisis del Z10 hace unos meses por lo que poco vamos a añadir por aquí. La clave es la misma: gestos, gestos y gestos. No hay un botón de inicio, hay un gesto: deslizar el dedo hacia arriba desde la base de la pantalla. Y el otro gesto clave es el de acceder a BlackBerry Hub, deslizando el dedo de izquierda a derecha de la pantalla.
Estos gestos, que en el Z10 son relativamente cómodos, en el Q10 son algo más problemáticos por lo reducido de la pantalla. No es nada raro que tengas que repetir varias veces alguno de ellos para que el móvil responda, sobre todo si tienes unos dedos más gruesos de lo normal.
Además, BlackBerry ha tenido que dejar una banda de pantalla de casi un centímetro entre los iconos y el nacimiento del teclado físico, donde se ve la barra de situación en el menú o la barra de direcciones en el navegador, y el resultado es realmente extraño. Es como si el teléfono quedara dividido en dos mundos: en la parte superior, hundida, está la pantalla táctil y en la inferior, el teclado que sobresale por encima de todo. Muy lejos de esa sensación homogénea de pantalla y teclado unidos en un solo interfaz.
La ausencia de apps frente a otras plataformas es aún muy notable. Y una nativa clave, la de mapas, es bastante inferior a Google Maps o Here de Nokia. Y luego está el diseño del software: los iconos, las fuentes y lo abigarrado del interfaz es igual de desesperante que en el Z10. Si vienes de Android, de iOS o incluso de Windows Phone, será difícil que no veas el diseño de BB10 como un paso atrás. No en funcionalidad, pero sí en apariencia.
Junto al teclado, hay otro elemento que te reconcilia con este smartphone: su rapidez. El procesador (Qualcomm de doble núcleo a 1,5 GHz) y la memoria RAM (2GB) es la misma que en el Z10, pero la optimización con el resto de especificaciones y el software es tan buena que parece igual o más rápido que su hermano mayor. La única salvedad es a la hora de lanzar la aplicación de la cámara para fotos o vídeo, con unos segundos extra de espera que no deberían de existir. O a la hora de abrir aplicaciones complejas en código como Facebook. Por lo demás, el Q10 es una pequeña bala.
Junto al teclado y la rapidez, la batería será el otro frente que te sorprenderá. Cuenta con una batería de 2.100 mAh, superior a los 1.800 mAh del Z10 y se nota. En nuestras pruebas, bajo un uso intensivo de email, aplicaciones y cámara, pudimos extender el uso a un día completo sin problema, e incluso casi a día y medio en algunas ocasiones, más de lo que nos ocurrió con el Z10.
Sin embargo, con BlackBerry ya se sabe, es una de cal y otra de arena: la cámara te romperá el corazón. Es la misma que en la del Z10, una principal de 8 MP con flash LED y capaz de grabar vídeo a 1080p, y la delantera de 2 megapíxeles. A plena luz del día las fotos salen sin alma, descafeinadas en color y con algo de ruido. En situaciones con poca luz, mejor ni lo intentes. Cierto que al usuario objetivo de este tipo de móvil probablemente le de igual la cámara, pero avisado estás. 

miércoles, 17 de julio de 2013

Así sería el mundo sin móviles...


Hace no tanto (solo unos años, de hecho) vivíamos sin móviles. Sí, parece increíble pero así era. Los hemos interiorizado tanto en nuestro día a día que no nos imaginamos la vida sin ellos. Es más, según diversos estudios, ante un olvido de la cartera o del móvil, regresamos antes a casa a por el segundo que a por la primera.

¿Cómo sería en la actualidad nuestra vida sin el móvil? Sobre este aspecto la firma Qualcomm, especialista en el desarrollo de procesadores para estos dispositivos y de otras soluciones del entorno de las comunicaciones, ha hecho para ejemplificar esto.

El vídeo, al estilo de las primeras películas mudas, ironiza sobre cómo actualizaríamos nuestro estado en las redes sociales, revisaríamos nuestro correo o nos entretendríamos de camino al trabajo sin tener móvil.

He aquí la visión de un mundo sin móvil:


viernes, 7 de junio de 2013

Samsung Galaxy S4 Active

Samsung acaba de hacer público su nuevo y resistente smartphone Galaxy S4 Active. Se trata de una versión del superventas Galaxy S4 que destaca por un acabado resistente tanto al agua como al polvo.
Es un terminal enfocado a usuarios exigentes que llevan su móvil siempre consigo incluso cuando se van al río o a la montaña. Sin duda un terminal todoterreno no sólo por su diseño sino también por su potencia ya que, entre otros, comparte corazón con el homónimo Galaxy S4.
Samsung Galaxy S4 Active, especificaciones y diseño
Este resistente terminal tiene la certificación IP67 que deja constancia de la resistencia del terminal ante la penetración de cuerpos sólidos o bien agua. Estamos hablando de un smartphone que es capaz de sobrevivir a inmersiones de media hora a una profundidad de un metro.
¿Qué hace posible esta certificación? Que el terminal no muera cuando tu hijo coja el móvil y lo eche en la pecera, retrete o bañera e incluso permite realizar fotografías o vídeos bajo el agua.
En cuanto a las especificaciones técnicas, nos encontramos con un procesador Snapdragon 600 quad-core a 1,9 GHz, 2 GB de RAM y una batería de 2.600 mAh. El almacenamiento corre a cargo de 16 GB de memoria interna y una ranura para tarjetas microSD de hasta 64 GB. Ofrece conectividad LTE y Wi-Fi AC.
La pantalla es de 5 pulgadas y tiene resolución 1080p dando una densidad de píxeles de 443 ppp y siendo realmente sensible ya que puede ser manejada con guantes.
Hasta aquí y salvo a la resistencia al polvo y al agua estamos ante un terminal idéntico a Galaxy S4. En el apartado fotográfico se ha integrado una cámara de 8 Mpx frente a los 13 Mpx del S4. La cámara frontal se mantiene con su 2Mpx y la posibilidad de grabar vídeos FullHD. A destacar también que el software de la cámara ha sido adaptado a las funcionalidades d este terminal con un “modo agua”.
Galaxy S4 Active hace uso de TouchWiz de Samsung que corre como capa sobre Android Jelly Bean 4.2.2 e integra la mayoría de funcionalidades que sacó a la luz Galaxy S4: S Travel, S Translate, Play Group, funciones de cámara Drama Shot, Sound & Shot o Story Album, y también Smart Pause, Air View, S Health, Gesture Air.

sábado, 6 de abril de 2013

Facebook presenta Home, una nueva «app» de inicio para smartphones Android


Mark Zuckerberg, fundador de Facebook ha sido el encargado de realizar el anuncio. «Vamos a hablar de Facebook Phone, bueno, mejor dicho cómo convertir un teléfono de Android en un móvil social integrado con Facebook», ha señalado. El modelo del sistema de un móvil ha estado siempre alrededor de aplicaciones, eso lo quieren cambiar desde la mayor red social para que el protagonista sea la persona, más humano.

«De promedio pasamos 2o% del tiempo de nuestro tiempo en los teléfonos en Facebook. Pasamos nuestra vida conectado y compartiendo. Los móviles deberían estar pensados en personas, no en apps» El «newsfeed» que lanzaron hace algunas semanas, apunta Zuckerberg, les ha hecho darse cuenta que es mucho mejor prescindir de «mensajes» , «personas»… todo en un mismo lugar.

Lo han confesado, no desean construir un móvil, sino «construir la mejor experiencia que se puede conseguir con un teléfono». Zuckerberg ha apuntado que para realizar esta misión no necesitaban construir un sistema operativo, ya que Android permite esta integración porque es un sistema abierto.

Disponible el 12 abril
«Facebook Home» es una nueva experiencia de utilizar la pantalla de inicio del móvil, que según Zuckerberg es el sitio del móvil que se mira más de 100 veces al día. Con esta integración los mensajes son importantes y siempre están presentes aunque se cambie de aplicación. Hablan de «lanzar» aplicaciones.

Adam Massari, ha sido el responsable de hablar sobre la experiencia de este sistema. Cuando se encienda el teléfono primero se verá el «Cover feed», el feed de las fotos de Facebook. No no hay logos, nada, sólo fotos. Las pantallas funcionas como un «Hub» en donde «todo es muy sencillo de usar y está accesible con sólo deslizar el dedo sobre ella».

Las conversaciones quedan siempre activas, aunque se abran aplicaciones. Una foto de perfil estará también siempre presente en forma de burbuja. Para instalar sólo hay que ir a Google Play e instalar la aplicación de Facebook Home a partir de este 12 de abril. En unos meses van a hacer lo mismo con «tablets», pero les queda un largo recorrido todavía. Todos los meses van a lanzar una actualización con funcionalidades nuevas. El móvil es lo primero a la hora de diseñar en Facebook.

HTC First, el primer móvil con esta integración
Peter Chou, CEO de HTC se encarga de presentar los móviles diseñados por la compañía taiwanesa que integraran de serie esta nueva aplicación. HTC First es un «teléfono social». «Combina en nuevo Facebook Home y diseño. Tendrán una experiencia especial para notificiaciones y actualizaciones».

Estará disponible en cuatro colores a partir del 12 de abril por 99,9 dólares solo con AT&T «con conexión LTE». Se puede por ordenar a partir de hoy. Mark Zuckerberg había señalado hace meses que la idea de desarrollar un «smartphone» en Facebook sería un «estrategia equivocada». Una encuesta en «Mashable» apuntaba que más del 80% de las personas consultadas señalaban que no estaban interesados en un teléfono Facebook. En el sitio Retrevo también realizaron una encuesta y sólo un 3% de los usuarios estaría dispuesto a comprar un móvil de Facebook.

A parte de HTC First, esta applicación empezará a funcionar primero en HTC One (el que aún no ha llegado al mercado),HTC One X, HTC One X+, Samsung GALAXY S III, Samsung GALAXY S4 (que se espera este mes) y la Samsung GALAXY Note II

Fuente : http://www.abc.es/tecnologia/informatica-internet-telecomunicaciones.asp

domingo, 17 de febrero de 2013

Sony Xperia U

El Sony Xperia U es un teléfono con pantalla de 3.5 pulgadas con procesador de doble núcleo y que mantiene el atractivo diseño de líneas rectas que tanto está gustando. Pasemos a verlo en profundidad. Parece curioso que a un teléfono con pantalla de 3.5 pulgadas haya que colocarle ya el apelativo de “pequeño“. Pero así es. El nuevo Sony Ericsson Xperia U es el hermano menor en tamaño de los nuevos NXT de Sony. Su dimensiones principales son de 112 × 54 x 12 mm, y su peso ha quedado establecido en 110 gramos. Este terminal no renuncia a la tecnología Mobile Bravia Engine para su pantalla de 3.5 pulgadas con resolución de 854 × 480 pixeles y densidad de 280 ppp. El otro dato que tanto se suele mirar ahora en las especificaciones de un móvil, el procesador, es un doble núcleo a 1 Ghz (U8500) acompañado de 512 MB de memoria RAM. La memoria interna es de 8 GB sin posibilidad de ampliación con tarjetas de memoria. En el apartado de sonido este Sony Xperia U quiere presumir de tecnología xLoud y Sony 3D, así como de una gran facilidad para hacer streaming de esa música usando la tecnología DLNA. Como sistema operativo, este Sony Xperia U saldrá al mercado con la versión 2.3 pero prometen una actualización a Android 4.0 para antes del verano. La cámara de fotos no es un valor mediático en este Xperia, y se conforma con 5 megapíxeles, aunque optimizado para que sea rápida al hacer las fotos. El resto de características asociadas a la cámara, como el geoetiquetado o la detección de rostros también están presente junto con la función de toma de panorámicas en 3D o la grabación de vídeo a 720p. Y en cuanto a la conectividad, es un HSPA con WiFi, bluetooth y GPS. Y la batería se queda en una capacidad de 1320 mAh. Barra de luz para las personalización Un símbolo que Sony quiere que identifique perfectamente a sus nuevos Xperia NXT es la barra luminosa que incluye a los controles capacitivos del teléfono. En el Sony Xperia U esa barra se ilumina de diferentes colores según los tonos predominantes en las imágenes o los álbumes musicales, al más puro estilo de los sistemas Ambilight de Philips.

Fuente: http://www.gsmspain.com

martes, 15 de enero de 2013

Historia del hacker

Al principio fueron los Auténticos Programadores, pero no era así como se llamaban a sí mismos. Tampoco "hackers" ni nada parecido; el sobrenombre "Auténtico Programador" (Real Programmer) no sería usado hasta el año 1980, en que uno de ellos lo hizo de forma retrospectiva. Desde 1945, las tecnologías de la computación habían atraído a muchos de los cerebros más brillantes y creativos del mundo. Desde el primer computador ENIAC de Eckert y Mauchly, existió una cultura técnica de cierta continuidad, consciente de sí misma, compuesta por programadores entusiastas; personas que creaban y manipulaban software por pura diversión. Los Auténticos Programadores provenían habitualmente de disciplinas como la ingeniería o la física y con frecuencia se trataba de radioaficionados. Llevaban calcetines blancos, camisas de poliéster con corbata y gafas gruesas, y programaban en código máquina, en ensamblador, en FORTRAN y en media docena más de arcaicos lenguajes ya olvidados. Desde el fin de la Segunda Guerra Mundial hasta comienzos de los 70, en los felices días del procesamiento por lotes y las grandes supercomputadoras "de hierro", los Auténticos Programadores constituyeron la cultura técnica dominante en el ámbito de la computación. Algunos vestigios venerados del folklore hacker datan de esta época, entre ellos varias listas de las Leyes de Murphy y el póster germano-burlesco "Blinkenlights" que aún adorna muchas salas de computadoras. Algunas de las personas que crecieron en la cultura de los Auténticos Programadores permanecieron en activo hasta bien entrados los 90. Seymour Cray, diseñador de la gama de supercomputadoras Cray, fue uno de los mejores. Se dice de él que, en cierta ocasión, introdujo de principio a fin un sistema operativo de su invención en una de sus computadoras, usando los conmutadores de su panel de control. En octal. Sin un solo error. Y funcionó. Un "macho supremo" entre los Auténticos Programadores. Sin embargo, la cultura de los Auténticos Programadores estaba demasiado ligada al procesamiento por lotes, concretamente al de tipo científico y fue eclipsada por el auge de la computación interactiva, las universidades y las redes. Estas dieron lugar a otra tradición de la ingeniería que, con el tiempo, evolucionaría en la cultura hacker del código abierto que hoy conocemos. 3. Los primeros hackers Los comienzos de la cultura hacker, tal como la conocemos actualmente, se pueden fechar con seguridad en 1961, año en que el MIT adquirió la primera PDP-1. El comité de Señales y Energía del Tech Model Railroad Club adoptó la computadora como su juguete tecnológico preferido e inventó herramientas de programación, un argot y toda una cultura en torno a ella que aun hoy puede reconocerse entre nosotros. Estos primeros años han sido examinados en la primera parte del libro de Steven Levy, Hackers. La cultura en torno a las computadoras del MIT parece haber sido la primera en adoptar el termino "hacker". Los hackers del Tech Model Railroad Club se convirtieron en el núcleo del Laboratorio de Inteligencia Artificial del MIT, el centro más destacado de investigación sobre Inteligencia Artificial de todo el mundo a principios de los 80. Su influencia se extendió por todas partes a partir de 1969, año de creación de ARPANET. ARPANET fue la primera red intercontinental de alta velocidad. Fue construida por el Departamento de Defensa estadounidense como un experimento de comunicaciones digitales, pero creció hasta interconectar a cientos de universidades, contratistas de defensa y centros de investigación. Permitió a investigadores de todas partes intercambiar información con una rapidez y flexibilidad sin precedentes, dando un gran impulso a la colaboración y aumentando enormemente el ritmo y la intensidad de los avances tecnológicos. Pero ARPANET hizo algo más. Sus autopistas electrónicas reunieron a hackers de toda Norteamérica en una masa crítica: en lugar de permanecer en pequeños grupos aislados desarrollando efímeras culturas locales, se descubrieron (o reinventaron) a sí mismos como una tribu interconectada. Las primeras creaciones deliberadas de la cultura hacker -las primeras listas de argot, las primeras sátiras, las primeras discusiones conscientes sobre la ética del hacker- se propagaron por ARPANET en sus primeros años. Concretamente, la primera versión del Jargon File o "Archivo de la Jerga" se desarrolló mediante colaboración descentralizada entre 1973 y 1975. Este diccionario de argot se convirtió en un documento definitivo de esta cultura. Posteriormente sería publicada como The Hacker's Dictionary, en el año 1983; aquella primera versión está ya agotada, pero existe una edición revisada y ampliada: The New Hacker's Dictionary. La cultura hacker floreció en las universidades conectadas a la red, especialmente (aunque no exclusivamente) en sus departamentos de informática. El Laboratorio de IA del MIT fue, prácticamente, el primero desde finales de los años sesenta. Pero el Laboratorio de Inteligencia Artificial de Stanford (SAIL) y la Universidad de Carnegie Mellon le seguían muy de cerca. Todos fueron prósperos centros de informática e investigación sobre IA. Todos ellos atrajeron a gente brillante que hizo numerosas aportaciones a la cultura hacker, tanto en el ámbito técnico como en el folklórico. Para comprender lo que vendría después, necesitamos de nuevo echar un vistazo a lo que ocurría con los propios computadores, pues tanto el auge como la posterior caída del Laboratorio del MIT fueron determinados por cambios en la tecnología informática. Desde los días del PDP-1, el destino de la cultura hacker había estado unido a las computadoras PDP de DEC, Digital Equipment Corporation. Esta compañía fue pionera en la computación interactiva para empresas y en sistemas operativos de tiempo compartido. Debido a la flexibilidad y potencia de sus máquinas y a unos precios relativamente económicos para la época, muchas universidades las compraron. Los asequibles sistemas de tiempo compartido fueron el medio en el cual creció la cultura hacker y, durante la mayor parte de su existencia, ARPANET fue principalmente una red de computadoras DEC. La más importante de estas fue la PDP-10, aparecida en 1967. La 10 fue la favorita de los hackers durante casi 15 años; TOPS-10 (el sistema operativo de DEC para ella) y MACRO-10 (su lenguaje ensamblador) todavía se recuerdan con nostalgia en una gran cantidad de argot y folklore. El MIT, aunque hizo uso de la PDP-10 como todo el mundo, tomó un camino ligeramente diferente; rechazó por completo el software de DEC para ella y construyó su propio sistema operativo, el legendario ITS, cuyo significado, Sistema de Tiempo-compartido Incompatible, da una pista bastante buena sobre la actitud de los hackers del MIT. Querían hacerlo a su manera. Afortunadamente para todos, la gente del MIT poseía tanta inteligencia como arrogancia. El extraño ITS, con sus excentricidades y errores ocasionales, albergó toda una brillante sucesión de innovaciones técnicas y todavía conserva el record del sistema de tiempo compartido más largamente usado. ITS fue escrito en ensamblador, pero muchos proyectos relacionados se escribieron en el lenguaje de Inteligencia Artificial LISP. Este fue mucho más potente y flexible que cualquier otro lenguaje de la época; de hecho, tiene un mejor diseño que la mayoría de lenguajes de hoy en día, veinticinco años después. LISP dio a los hackers de ITS libertad para pensar de forma creativa y poco convencional. Fue un factor importante en sus éxitos y aún sigue siendo uno de los lenguajes preferidos por los hackers. Muchas de las creaciones técnicas dentro de la cultura del ITS aún perduran; el programa de edición Emacs es quizá el más conocido. Y gran parte del folklore del ITS está aún vivo entre los hackers, como puede leerse en Jargon File . Pero el SAIL y la CMU no habían estado dormidos. Muchos de los hackers más destacados que surgieron alrededor de las PDP-10 del SAIL serían más tarde figuras clave en el desarrollo de los computadores personales y las interfaces de ventanas con ratón e iconos que hoy día conocemos. Mientras tanto, los hackers de la CMU estuvieron trabajando en lo que les llevaría a liderar las primeras aplicaciones prácticas a gran escala de los Sistemas Expertos y la Robótica Industrial. Otro nodo importante en la cultura fue el PARC de XEROX, el célebre Centro de Investigación de Palo Alto (California). Durante más de una década, desde los primeros 70 a mitad de los 80, el PARC produjo una sorprendente cantidad de hardware revolucionario e innovaciones software. El ratón moderno, las ventanas y la interfaz gráfica basada en iconos se inventaron allí. También la impresora láser y las redes de área local. Y la serie D de computadoras del PARC se anticipó a los potentes PC de los 80 en más de una década. Por desgracia, aquellos profetas carecieron de reconocimiento en su propia empresa. Tanto es así que se convirtió en broma habitual el describir el PARC como el lugar donde se desarrollaban ideas brillantes para provecho de los demás. Su influencia en la cultura hacker fue profunda. Las culturas alrededor de ARPANET y las PDP-10 crecieron en fuerza y variedad durante los años 70. Las herramientas de listas de correo electrónicas, que se habían usado para fomentar la cooperación intercontinental entre grupos de intereses comunes, fueron utilizándose cada vez más con propósitos sociales y recreativos. DARPA hizo la vista gorda de forma consciente a toda esta actividad "no autorizada": comprendía que este coste operativo extra era un precio asequible a cambio de atraer a toda una generación de jóvenes de talento al área de la informática. Quizá la más conocida entre las listas electrónicas "sociales" de ARPANET fue la lista SF-LOVERS, para fans de la ciencia ficción; aún hoy tiene bastante movimiento en su versión de Internet, de la que ARPANET fue embrión. Pero hubo otras muchas, que crearon un estilo de comunicación que más tarde ofrecerían servicios comerciales de tiempo compartido como Compuserve, GEnie y Prodigy (y que finalmente lideraría AOL). Vuestro narrador tomó contacto por primera vez con la cultura hacker allá por 1977, a través de la primera ARPANET y el mundillo de la ciencia ficción. Desde entonces, pude ser testigo e incluso participar en muchos de los cambios que a continuación se relatan. 4. El surgimiento de Unix Lejos de la atractiva vida de ARPANET, en la jungla de New Jersey, algo venía ocurriendo desde 1969 que llegaría a eclipsar la tradición de la PDP-10. El año que vio nacer a ARPANET también fue el año en que un hacker de Laboratorios Bell llamado Ken Thompson inventó Unix. Thompson había estado involucrado en el desarrollo de un sistema operativo de tiempo compartido llamado "Multics", que compartía ascendencia con ITS. Multics fue un buen campo de pruebas para algunas ideas importantes sobre cómo ocultar al usuario o incluso a los programadores las complejidades de un sistema operativo. La idea era hacer a Multics más fácil de usar (y de programar) para poder así centrarse en el verdadero trabajo a realizar. Laboratorios Bell se salió del proyecto cuando Multics mostró síntomas de haber ido inflándose hasta convertirse en un mastodonte inútil (el sistema sería posteriormente comercializado sin apenas éxito por Honeywell). Ken Thompson echó de menos el entorno Multics y comenzó a realizar pruebas, implementando una mezcla de sus características y algunas ideas propias en una vieja DEC PDP-7 rescatada de la basura. Otro hacker llamado Dennis Ritchie inventó un nuevo lenguaje llamado C para usarlo en el embrionario Unix de Thompson. Al igual que Unix, C fue diseñado para ser ameno, flexible y no imponer límites. Pronto, el interés por estas herramientas se fue extendiendo por Laboratorios Bell y se les dio un buen impulso en 1971, cuando Thompson y Ritchie recibieron una oferta para crear lo que ahora llamaríamos un sistema de automatización de oficinas, para uso interno de los laboratorios. Pero Thompson y Ritchie tenían la mirada puesta en un trofeo más importante. Tradicionalmente, los sistemas operativos se escribían por completo en ensamblador para obtener la máxima eficiencia de las computadoras donde se instalaban. Thompson y Ritchie fueron de los primeros en darse cuenta de que las tecnologías del hardware y de los compiladores habían mejorado lo suficiente como para que un sistema operativo pudiera escribirse usando únicamente C, y llegado 1978 el sistema completo había sido portado con éxito a varios tipos de computadoras. Esto nunca antes se había hecho, y las implicaciones fueron enormes. Si Unix podía tener la misma apariencia, el mismo potencial, en computadoras de distinto tipo, podría servir de entorno software común para todas ellas. Los usuarios no tendrían que pagar por un nuevo diseño de software cada vez que una máquina se quedara obsoleta. Los hackers podrían trasladar sus herramientas entre distintas computadoras, en vez de tener que reinventar los equivalentes del fuego y la rueda cada vez. Además de la portabilidad, Unix y C tenían otras importantes cualidades. Ambos se crearon con una filosofía de tipo "hazlo sencillo, idiota": un programador podía retener en la cabeza la estructura lógica de C (al contrario que con la mayoría de lenguajes) en lugar de recurrir continuamente a los manuales. Unix se estructuró como un conjunto de herramientas flexible, compuesto por diversos programas sencillos, diseñados para poderse combinar entre ellos de distintas y provechosas maneras. La combinación demostró poder adaptarse a un amplio rango de tareas de computación, incluyendo muchas del todo imprevistas por sus diseñadores. Se extendió rápidamente por AT&T, a pesar de la falta de un programa oficial de soporte. Hacia 1980, se había extendido por un gran numero de centros de computación de laboratorios y universidades, y miles de hackers lo consideraban su hogar. Las máquinas habituales en los primeros tiempos de la cultura Unix eran las PDP-11 y su descendiente, la VAX. Pero debido a la portabilidad de Unix, se ejecutó, prácticamente sin sufrir cambios, en máquinas tan diversas como las que podían encontrarse en toda ARPANET. Y nadie usaba ensamblador: los programas en C eran fácilmente portables entre todas estas máquinas. Unix tenía incluso su propio sistema de redes, de tipo UUCP: con velocidades bajas y poca fiabilidad en la transmisión, pero barato. Cualquier par de máquinas Unix podía intercambiar correo electrónico "punto a punto" usando líneas telefónicas convencionales; esta funcionalidad estaba integrada en el propio sistema, no era ningún extra opcional. En 1980 los primeros servidores de USENET comenzaron a intercambiar noticias, formando un gigantesco tablón de anuncios que pronto crecería hasta superar en tamaño a ARPANET. Los servidores Unix pasaron a constituir su propia "nación de redes" en torno a USENET. ARPANET también contaba con algunos servidores Unix. Pronto las culturas de las PDP-10 y de Unix/USENET entraron en contacto y sus límites se empezaron a desdibujar, aunque en un principio no fue fácil. Los hackers de las PDP-10 miraban a la gente de Unix como un hatajo de advenedizos, que usaban herramientas ridículamente primitivas en comparación con la complejidad de ITS y LISP, adorablemente barroca. "Cuchillos de piedra y pieles de oso", era lo que solían murmurar. Y aún existía una tercera corriente. El primer computador personal había salido al mercado en 1975; Apple se fundó en 1977 y los avances se sucedieron con increíble rapidez durante los años que siguieron. El potencial de los microordenadores estaba claro y atrajo a otra nueva generación de jóvenes hackers. Su lenguaje era el BASIC, tan primitivo que los adeptos a las PDP-10 y los entusiastas del Unix lo consideraban absolutamente despreciable. 5. El fin de los viejos tiempos Así estaban las cosas en 1980: tres culturas cuyos bordes se solapaban pero estaban agrupadas en torno a tecnologías muy distintas. La cultura de las PDP-10 y ARPANET, ligada a LISP, a MACRO, a TOPS-10, a ITS y al SAIL; la gente de Unix y C con sus PDP-11, sus VAXen y sus conexiones telefónicas rudimentarias, y una anárquica horda de entusiastas de los primeros microordenadores, decididos a acercar el potencial de las computadoras al pueblo. De entre todos ellos, la cultura del ITS aún podía reclamar un puesto de honor, pero sobre el Laboratorio se cernían nubarrones de tormenta. La tecnología de las PDP-10 sobre la que se asentaba ITS estaba quedándose obsoleta, y el propio Laboratorio se dividió en facciones tras los primeros intentos de comercializar la Inteligencia Artificial. Algunos de los mejores del Laboratorio (y del SAIL y la CMU) fueron seducidos por empleos muy bien pagados en empresas de nueva creación. El golpe de gracia vino en 1983, cuando DEC canceló Jupiter, su continuación para la PDP-10, pasando a concentrarse en las líneas de las PDP-11 y las VAX. ITS ya no tenía futuro. Como no era portable, trasladar ITS a un nuevo hardware suponía un esfuerzo mayor del que cualquiera podía permitirse. La variante de Berkeley del Unix ejecutándose en máquinas VAX, se convirtió en el sistema "para hackers" por excelencia, y todo aquel con visión de futuro pudo ver que el potencial de los microordenadores estaba creciendo tan rápidamente que probablemente estos llegarían a barrer con todo a su paso. Fue más o menos en aquel momento cuando Levy escribió Hackers. Uno de sus principales informadores fue Richard M. Stallman (inventor de Emacs), una figura clave en el Laboratorio y su más firme resistencia frente a la comercialización de la tecnología de este. Stallman (a quien se le conoce habitualmente por sus iniciales y nombre de "login", RMS) siguió adelante, formando la Free Software Foundation ("Fundación del Software Libre") y se dedicó a la producción de software libre de calidad. Levy lo elogió llamándole "el último hacker auténtico", una denominación que felizmente resultó ser incorrecta. El grandioso plan de Stallman resumió nítidamente la transición que iba a experimentar la cultura hacker a principios de los 80: en 1982 comenzó la construcción de un clon completo de Unix, escrito en C y disponible gratuitamente. Su proyecto se conoció como sistema operativo GNU ("GNU No es Unix") en una especie de acrónimo recursivo. GNU pronto se convirtió en un foco importante de la actividad de los hackers. Así, el espíritu y la tradición de ITS fueron preservados como parte importante de la nueva cultura hacker, centrada en VAX y Unix. De hecho, desde su fundación y durante más de una década, la Free Software Foundation de RMS definiría en gran parte la ideología común de la cultura hacker, y el propio Stallman sería el único candidato creíble al liderazgo de la tribu. Sucedió también entre 1982 y 1983 que las tecnologías del microchip y la red de área local comenzaron a causar un impacto importante en la cultura hacker. Ethernet y el microchip 68000 de Motorola constituían una combinación de gran potencial, y aparecieron nuevas empresas que acabarían por desarrollar la primera generación de lo que hoy llamamos estaciones de trabajo. En 1982, un grupo de hackers del Unix provenientes de Standford y Berkeley fundaron Sun Microsystems, en la creencia de que Unix, corriendo en el hardware relativamente económico basado en el 68000, resultaría una combinación ganadora en una amplia variedad de aplicaciones. Estaban en lo cierto, y su visión fijó las normas para toda una nueva industria. Aunque sus precios quedaban fuera del alcance de muchos particulares, las estaciones de trabajo resultaban baratas para las empresas y universidades; las redes de estas (una para cada usuario) reemplazaron rápidamente las viejas VAX y otros sistemas de tiempo compartido. 6. La era del Unix propietario En 1984, cuando Ma Bell cerró y Unix pasó a ser un producto respaldado por AT&T, la escisión más importante en la cultura hacker se daba entre una "nación de redes" más o menos consistente, basada en Internet y USENET (y compuesta en su mayoría por servidores o estaciones de trabajo corriendo Unix) y una inmensa área remota, desconectada, formada por entusiastas de los microordenadores. Fue también más o menos por aquel entonces cuando la prensa se ocupó por primera vez de episodios importantes relacionados con el cracking, y fue aquí cuando los periodistas comenzaron a hacer un mal uso del término "hacker" para referirse a vándalos informáticos, uso que tristemente aún perdura. Las estaciones de trabajo creadas por Sun y otros, abrieron nuevos caminos para los hackers. Se habían fabricado para realizar gráficos de alto rendimiento y ofrecer datos compartidos en las redes. Durante los años 80, la comunidad hacker estuvo bastante ocupada con el reto de crear el software y las herramientas necesarias para obtener el máximo de estas prestaciones. El Unix de Berkeley incorporó soporte integrado para los protocolos de ARPANET, que ofrecieron una solución a los problemas de funcionamiento en red asociados a las lentas conexiones UUCP y estimuló el crecimiento de Internet. Hubo varios intentos de domesticación de los gráficos para estaciones de trabajo. El que prevaleció fue el sistema X Window, desarrollado en el MIT con la colaboración de cientos de individuos pertenecientes a docenas de empresas. Un factor determinante para su éxito fue el hecho de que los desarrolladores estaban dispuestos a ceder las fuentes de forma gratuita de acuerdo con la ética hacker, pudiendo distribuirlos en Internet. La victoria de X frente a sistemas gráficos propietarios (incluido el propuesto por la propia Sun) fue un importante presagio de los cambios que, unos años más tarde, afectarían profundamente al propio Unix. Aún a veces se respiraba cierto tedio faccionario en la rivalidad entre ITS y Unix (sobre todo en la parte de los partidarios de ITS). Pero la ultima computadora con ITS se apagó para siempre en 1990; los fanáticos se quedaron sin su razón de ser y la mayoría de ellos se fue adaptando, con mayor o menor grado de refunfuño, a la cultura Unix. Entre la comunidad hacker conectada en red, la gran rivalidad de los 80 se dio entre los entusiastas del Unix de Berkeley y las correspondientes versiones de AT&T. Aún se pueden encontrar copias de un póster de la época en que un piloto caricaturizado de X-Wing sacado de la Guerra de las Galaxias abandona raudo a una Estrella de la Muerte envuelta en llamas, en la que se puede distinguir el logotipo de AT&T. A los hackers de Berkeley les gustaba imaginarse como rebeldes enfrentados a desalmados imperios corporativos. El Unix de AT&T nunca alcanzó al de BSD/Sun en cuota de mercado pero ganó las guerras de estándares. Para 1990 las versiones de AT&T y BSD se volvieron difíciles de distinguir, ya que cada una había ido adoptando gran parte de las innovaciones de la otra. Con la llegada de los años 90, la tecnología de las estaciones de trabajo de la anterior década comenzó a verse seriamente amenazada por los nuevos computadores personales, baratos y de gran rendimiento, que se basaban en el chip 386 de Intel y sus derivados. Por primera vez, un hacker podía permitirse un computador doméstico comparable en potencia y capacidad de almacenamiento a los servidores de diez años antes, máquinas con Unix capaces de servir de plataforma de desarrollo y de comunicarse con Internet. El mundo MS-DOS permaneció felizmente ajeno a todo esto. Aunque aquellos primeros entusiastas de los microordenadores pronto crecieron hasta formar una población de hackers del DOS y de los Mac, muchas veces mayor a la de la cultura en torno a la red, nunca fueron conscientes de su propia condición. El ritmo de los cambios fue tan rápido que continuamente surgían decenas de culturas técnicas que pronto desaparecían, sin llegar nunca a tener la estabilidad necesaria para desarrollar una tradición común con su propia jerga, su folklore y su historia mítica. La ausencia de una red realmente popular que se pudiera comparar a UUCP o a Internet les impidió convertirse en otra "nación de redes". El acceso generalizado a servicios on-line comerciales como Compuserve o GEnie estaba empezando a afianzarse, pero el hecho de que los sistemas operativos (a excepción de Unix) no llevaran integradas herramientas de desarrollo hizo que los códigos fuente compartidos mediante este tipo de conexiones fuera escaso. Así que no pudo desarrollarse una tradición de colaboración entre hackers. A la corriente principal de la cultura hacker, (des)organizada en torno a Internet, y que hasta el momento se identificaba mayoritariamente con la cultura técnica de Unix, le traía sin cuidado este tipo de servicios comerciales. Lo único que deseaba eran mejores herramientas y más Internet, y los económicos PCs de 32 bits prometían poner todo esto al alcance de cualquiera. Pero ¿dónde estaba el software? Los Unix comerciales seguían siendo caros, del orden de varios "kilodólares". A principios de los noventa, varias empresas hicieron un intento de vender adaptaciones del Unix de AT&T o de BSD para PC. El éxito fue esquivo; los precios no habían bajado demasiado y, lo peor de todo, al adquirir el sistema operativo no disponías del código fuente para poder modificarlo y distribuirlo. El negocio del software no proporcionaba a los hackers lo que ellos querían. Tampoco lo estaba haciendo la Free Software Foundation. El desarrollo de HURD, el kernel gratuito de Unix tan largamente prometido por RMS a la comunidad hacker, quedó estancado durante años y no logró producir nada parecido a un kernel utilizable hasta 1996 (aunque para 1990 la FSF ya podía ofrecer el resto de componentes complejos de un sistema operativo similar a Unix). Peor aún, en 1990 estaba cada vez más claro que un esfuerzo de diez años para comercializar Unix representaba prácticamente un fracaso. La promesa de Unix de portabilidad entre plataformas se perdió en disputas infructuosas entre media docena de versiones propietarias de Unix. Los participantes demostraron ser tan lentos, tan ciegos y tan ineptos en cuestiones de marketing que Microsoft pudo arrebatarles una inmensa porción de su mercado con la tecnología escandalosamente inferior de su sistema operativo Windows. A principios de 1993, un observador hostil podría haber tenido motivos suficientes para opinar que la historia del Unix estaba prácticamente terminada, y con ella la suerte de la tribu hacker. Y los observadores hostiles no escaseaban precisamente en la prensa informática; muchos de ellos habían estado prediciendo de forma ritual la muerte inminente del Unix a intervalos de seis meses desde finales de los 70. En aquellos días era de sabiduría popular el pensar que la era del tecno-heroísmo individual había llegado a su fin, que la industria del software y la naciente Internet serían progresivamente dominadas por colosos como Microsoft. La primera generación de hackers de Unix parecía estar ya vieja y cansada (el grupo de Investigación de Ciencias de la Computación de Berkeley fue perdiendo empuje y se quedó sin financiación hacia 1994). Fue una época deprimente. Afortunadamente, habían ocurrido cosas lejos de la mirada de la prensa del sector, e incluso de la de muchos hackers, que poco después, en 1993 y 1994, darían lugar a desarrollos tremendamente positivos. Con el tiempo, estos conducirían a la cultura hacker en una dirección totalmente nueva, llena de éxitos ni siquiera soñados. 7. Los primeros Unix libres En el hueco dejado por el incompleto HURD de la Free Software Foundation se había deslizado un estudiante de la Universidad de Helsinki llamado Linus Torvalds. En 1991 había empezado a desarrollar un kernel libre para máquinas 386 usando el conjunto de herramientas de la FSF. Su rápido éxito inicial atrajo a muchos hackers de Internet con la intención de ayudarle a desarrollar Linux, un sistema Unix completo de código fuente totalmente abierto y redistribuible. Linux no estaba libre de competidores. En 1991, al mismo tiempo que tenían lugar las primeras pruebas de Linus Torvalds, William y Lynne Jolitz estaban portando, de manera experimental, los fuentes de BSD Unix a la arquitectura del 386. Cualquier observador que hubiera comparado la tecnología BSD con los primeros y toscos esfuerzos de Linus habría confiado en que las adaptaciones del BSD se convertirían en los Unix libres para PC más importantes. Sin embargo, la ventaja más importante de Linux no era de carácter técnico, sino sociológico. Hasta el momento en que comenzó a desarrollarse, todo el mundo había creído que cualquier software de la complejidad de un sistema operativo tenía que desarrollarse con una cuidadosa coordinación por un grupo de personas bien cohesionado y relativamente pequeño. Este modelo era y aún sigue siendo típico del software comercial así como de las grandes catedrales del software libre construidas por la FSF durante los años ochenta. También fue el modelo que se siguió en el caso de los proyectos FreeBSD, NetBSD y OpenBSD que surgieron a partir de la adaptación original 386BSD, realizada por los hermanos Jolitz. Linux evolucionó de una forma completamente diferente. Desde casi el primer momento, fue programado de forma más bien eventual por un gran número de voluntarios coordinados a través de Internet. La calidad se mantenía, no con estándares rígidos o autocracia, sino con la estrategia, ingenuamente sencilla, de publicar cada semana y obtener la respuesta de cientos de usuarios en cuestión de días, creando un tipo de selección darwiniana rápida sobre las mutaciones presentadas por los desarrolladores. Para sorpresa de casi todo el mundo, esto funcionó bastante bien. Para finales de 1993, Linux podía competir en estabilidad y fiabilidad con muchos de los Unix comerciales, y contaba con una cantidad inmensamente mayor de software. Incluso comenzaba a atraer adaptaciones de aplicaciones comerciales. Un efecto indirecto de este desarrollo fue el exterminio de casi todos los pequeños proveedores de Unix propietario: sin desarrolladores ni hackers a los que vender su producto, tuvieron que cerrar. Uno de los pocos supervivientes, BSDI (Berkeley Systems Design, Incorporated) prosperó ofreciendo los fuentes completos junto a su Unix basado en BSD, y cultivando unos estrechos lazos con la comunidad hacker. Estos desarrollos no destacaron demasiado en su momento, incluso dentro de la comunidad hacker, y mucho menos fuera de ella. La cultura hacker, desafiando las repetidas predicciones de su defunción, estaba empezando a reconstruir el mundo del software comercial a su imagen y semejanza. Sin embargo tendrían que pasar cinco años más, para que esta tendencia llegara a ser evidente. 8. La gran explosión de la Web Al crecimiento precoz de Linux se sumó otro fenómeno: el descubrimiento de Internet por parte del gran público. Los años noventa también contemplaron el nacimiento de una floreciente industria de proveedores de Internet que vendían conectividad por unos cuantos dólares al mes. Tras la invención de la World Wide Web, el ya de por sí rápido crecimiento de Internet aceleró hasta alcanzar un ritmo frenético. En 1994, año en que el grupo de desarrollo del Unix de Berkeley suspendió formalmente sus actividades, eran varias las versiones libres de Unix (Linux y los descendientes del 386BSD) que actuaban como centros importantes de la actividad de los hackers. Linux se estaba distribuyendo comercialmente en CD-ROM y se vendía como rosquillas. A finales de 1995, las principales empresas de informática hacían anuncios publicitarios elegantes en los que presumían de la integración de sus productos, tanto software como hardware, con Internet. A finales de los 90, las principales actividades dentro de la cultura hacker eran el desarrollo de Linux y la universalización de Internet. La World Wide Web había convertido a Internet en un medio de comunicación de masas y muchos de los hackers de los ochenta y principios de los 90 montaron Proveedores de Servicios Internet con la intención de proporcionar acceso al gran público. Esta popularización de Internet confirió a la comunidad hacker cierta respetabilidad y autoridad política. En 1994 y 1995, el activismo hacker acabó con la propuesta Clipper, que pretendía poner bajo control del gobierno métodos criptográficos robustos. En 1996 los hackers movilizaron una amplia coalición contra la mal llamada "Acción por la Decencia en las Comunicaciones" (CDA), impidiendo la llegada de la censura a Internet. Con esta victoria contra la CDA, pasamos de la historia a los acontecimientos actuales. También entramos en un periodo en el que vuestro historiador (para su propia sorpresa) dejó de ser un mero espectador para convertirse en un actor más. La narración continuará en Revenge of the Hackers, "La venganza de los hackers".