Category: IT

Los factores que condujeron a la debacle de Windows Vista explicados «desde dentro»

Windows Vista

Denostado por muchos, vilependiado por otros y blanco de infinidad de chistes, el conocido Windows Vista de Microsoft (2007-2010) fue durante largo tiempo ignorado por una parte importante de su público objetivo debido a sus más que visibles «problemas» de todo tipo.

No es ningún secreto que Vista se convirtió en un dolor de cabeza para Microsoft (y en la peor pesadilla para usuarios y desarrolladores) y muchos todavía no se explican cómo pudo llegar al mercado una versión sucesora del imperio Windows a la que le faltaba algo más que un hervor. Puso su piedra en lo que han llamado la década perdida de Microsoft, una de tamaño importante.

Terry Crowley, que trabajaba en el equipo de desarrollo y proyectos de Microsoft en aquella época (en el departamento de Office, pero muy cerca del equipo de Windows Vista) ha querido resumir en What Really Happened with Vista (Qué sucedió realmente con Vista) lo que considera fueron las causas principales de aquella debacle.

Resumiendo en TL;DR su TL;DR la conclusión es que

  • Microsoft se equivocó al juzgar las tendencias de hardware de la época. Acabó diseñando y construyendo un Windows Vista que funcionaba mal en los equipos de sobremesa, peor en los portátiles y de forma desastrosa en los teléfonos móviles.
  • La apuesta por C# como lenguaje de referencia, que dio lugar a código de baja calidad y mal gestionado. La responsabilidad directa la achaca a Bill Gates, que buscaba una especie de Santo Grial y fue desastroso a largo plazo.
  • La gestión del proyecto Windows fue un desastre de principio a fin, con interminables retrasos en muchas áreas. Vista fue un desastre que culminó una serie de casi-catástrofes en otras áreas de diversos proyectos.

Como puede verse por el resumen, el artículo –que es bastante completo, divulgativo e incluso comparativo con otros sistemas operativos– no deja títere con cabeza. Algo bueno y que conviene repasar, porque de los errores siempre se aprende algo.

Relacionado:

# Enlace Permanente

Un mapa de los ataques de WannaCry en tiempo real

Un mapa de los ataques de WannaCry en tiempo real

MalwareTech ha dado a conocer una web que recopila en tiempo real en un mapamundi los ataques del ransomware WannaCry a medida que se van sucediendo – también los de otros tipos de botnets.

Además del mapa instantáneo hay versiones donde se acumulan los datos durante diferentes periodos – aunque todo eso funciona regulín porque parece un proyecto secundario y experimental de alguien de la empresa, no un servicio «oficial».

En cualquier caso, interesante como fondo de pantalla estos días.

Bonus: MalwareTech es la empresa en la que trabaja el analista que accidentalmente descubrió una forma de detener la propagación del virus. Al analizar el funcionamiento del WanaCrypt0r 2.0 observó que consultaba un «extraño» dominio en Internet y, si no existía, continuaba con la infección. Con solo comprar por 10 dólares y activar el dominio de enrevesado nombre (que actuaba como lo que técnicamente se conoce como kill switch o «botón de parada de emergencia») resolvió el problema para cientos de miles de máquinas infectadas.

Bonus: la cuenta de Twitter @actual_ransom tuitea en tiempo real la cantidad de bitcoin recibidas en las tres cuentas de pago que utiliza el virus; en estos momentos asciende a

34,6200695 BTC
58.821 dólares

Para haberla liao tan parda tampoco es una cifra descomunal, sinceramente.

(Vía CNET.)

# Enlace Permanente

Felíz Pi!

Como cada 14 de marzo (3/14 en anglosajón) hoy es el día de pi. Este año se tiene el lema «Sin π no soy nada» para celebrar el Pi Day. Y como siempre, un recordatorio de algunas cosas que puedes hacer hoy a modo de…

Duckietown, la ciudad donde conviven coches autónomos y patos de goma

[youtube https://www.youtube.com/watch?v=b0B6S2Ca75Q?rel=0&w=560&h=315]

Duckietown es obra de un grupo de estudiantes del Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT, una ciudad a escala en la que circula una flota de coches autónomos que van de aquí para allá llevando patos de goma.

El desafío está en que los taxis robotizados los construyen los estudiantes utilizando únicamente una cámara. Programan los vehículos para el reconocimiento de imágenes y con algo inteligencia artificial para entrar a circular pero sin hacer uso ni de mapas ni de rutas programadas.

Relacionado,

# Enlace Permanente

La Hover Camera flota en el aire, te graba y te sigue

HoverCamera

[youtube https://www.youtube.com/watch?v=aOn-BG4h0pQ&w=560&h=315]

El aspecto de la Hover Camera es cuando menos sorprendente: una especie de delgado libro de plástico, que no es mucho más gran de que una hoja de papel A4, se puede plegar casi a la mitad y es tremendamente ligero (240 gr) gracias a estar construido en fibra de carbono.

Este mini dron está equipado con cuatro motores para flotar en el aire de forma autónoma y sobre todo estable; la una cámara de fotos y vídeo de 13 megapíxeles y 4K está estabilizada mediante un sistema especial para evitar los incómodos temblores que estropean muchas tomas.

Aparte de eso la Hover Camera puede seguir a las personas que están a su alcance mediante un sistema de reconocimiento facial, de modo que las acompaña sigilosamente mientras graba.

Del proyecto de momento hay algunas fotos y el vídeo de demostración, pero tiene pinta de ser otro caso de esos de «que me los quitan de las manos» (especialmente debido al componente selfie). Eso sí: se desconocen los planes de fechas y el precio.

# Enlace Permanente

Cómo se prueba en laboratorio un ratón inalámbrico antes de lanzarlo al mercado

[youtube https://www.youtube.com/watch?v=wQxw-pX4dak?rel=0&w=853&h=480]

En este publirreportaje¹ de Linus Tech Tips se explica paso a paso como los laboratorios de Logitech realizan pruebas de las prestaciones de los ratones, en concreto los inalámbricos, en todo tipo de situaciones, especialmente en lo relativo a la transmisión de las señales.

Se utiliza una cámara anecoica que aísla la sala completamente, también del «rebote» de las señales y en cuyo interior hay una antena estilo «rayo de la muerte de malvado de película» que lanza interferencias de todo tipo para simular los efectos de la saturación de frecuencias wifi y Bluetooth sobre el dispositivo. Es como el escenario de pesadilla perfecto para los dispositivos inalámbricos.

Para simular el movimiento del ratón han fabricado mecanismos de tortura «tipo Ikea» que mueven físicamente el ratón (un tanto relativamente: lo que se mueve es la «mesa» bajo el ratón) haciendo que emita las señales convencionales para comunicarse con el ordenador que se correspondan a movimientos físicos, no una mera simulación.

Un analizador de espectro recibe los resultados y los dibuja en pantalla, de modo que si hubiera retardo en las señales aparecería cierto desplazamiento (como así sucede). Eso permite calibrar las unidades o analizar formas de evitar esas interferencias. En las pruebas se comparan diversos ratones y se varía la potencia de las interferencias a ver qué sucede: si hay demasiados «saltos», mala cosa. Los ratones con mejores comunicaciones muestran poco desplazamiento y saltos, otros se «vuelven locos» y se vuelven impracticables.

En algunos ratones inalámbricos –sobre todo los viejos– la batería es todo un problema: crea «puntos muertos» en los que no hay señal; por eso cuando se diseñan hay que medir cuidadosamente todo su entorno para asegurarse de que este componente, su tamaño y ubicación, no interfieren con las antenas.

En otro aparato se mide la latencia o «retardo» de las señales; este es el factor responsable de que las señales del ratón se conviertan en movimientos suaves –o no tanto– en la pantalla. Normalmente va entre 4 y 8 milisegundos según los modelos. Si el rendimiento es bajo o se producen problemas la cifra aumenta demasiado; entonces los humanos nos percatamos de que el ratón «no responde rápido» a los movimientos que se hacen y resulta incómodo y molesto. (En esto también están implicados los retrasos de la pantalla, el sistema operativo, las aplicaciones, etcétera).

En general las pruebas tienen un buen transfondo matemático: cientos o miles de pruebas estadísticamente promediadas permiten conocer los valores experimentales (tanto mecánicos como «humanos») con gran exactitud. Mucho trabajo de señores con bata de laboratorio de cara a comparar unos productos con otros y eliminar problemas para así fabricar productos más competitivos.

_____
El vídeo original es un publirreportaje pagado por Logitech y está presentado por Luke, editor de Linus Tech Tips. Eso quiere decir que Logitech ha pagado por que le publiquen el vídeo ahí como forma de promocionar sus productos y marca, algo por otra parte bastante normal para muchos departamentos de márketing. ¡Pero el vídeo es realmente interesante! Está bien grabado, bien presentado, con buen audio… y lleno de chismes curiosos: salas de análisis, osciloscopio y mecanismos ingeniosos. De ahí que aquí lo publiquemos por su interés público y sin que nadie pague nada. Quizá se pueda aprender algo de esto.

# Enlace Permanente

Estudio: las mujeres son mejores programando («siempre que no se sepa que son mujeres»)

Harlem Women Code (CC) Sebastian Delmont @ Flickr

En The Guardian publican un artículo en el que explican los resultados de un estudio llevado a cabo por investigadores sobre el repositorio de código GitHub en el que han concluido que las mujeres son mejores programando, al menos si se tiene en cuenta las aprobaciones de código por parte de otros programadores (en la jerga: pull requests) que pueden considerarse como una forma de validación de su efectividad y calidad.

Lo curioso del asunto es que aunque su «ratio de aceptación» es mayor que el de los hombres (78% frente a 74%) esto sólo sucede cuando los datos de su perfil no permiten identificar que se trata de una mujer; en el resto de los casos su aceptación es igual que la de los hombres. Para asegurarse del sentido de estos sesgos emplearon una muestra de 3 millones de envíos de código, en los 10 lenguajes más populares y eliminando todos los demás factores (tamaño del código enviado, tipo de programas) vieron que en todos los casos la situación es la misma.

Pese a que la diferencia es pequeña esto viene a decir que la injusticia está ahí: si el apodo o nombre utilizado en el perfil permite identificar el sexo de quien envía el código como «mujer» su ratio de aceptaciones será más bajo que si utiliza un nombre neutro.

Según explican en el artículo esto ha arrojado cierta sombras sobre el concepto ideal de meritocracia en GitHub, algo que tampoco es nuevo pero que ahora ha quedado confirmado con todo detalle.

Actualización: Scott Alexander de Slate Star Codex apunta algunos datos sobre por qué el estudio (y lo poco que se sabe de él) puede no ser muy fiable, tener otros sesgos o no ser realmente significativo Before you get too excited about that GitHub study…

.

{Foto: Harlem Women Code (CC) Sebastian Delmont @ Flickr}

Relacionado:

# Enlace Permanente

Las cuatro grandes barreras para el acceso a Internet en 2015 según Facebook

Cuadro resumen del estudio

Facebook acaba de publicar los datos de su estudio de acceso a Internet en todo el mundo en 2015, cuyos resultados se pueden leer en State of Connectivity 2015: A Report on Global Internet Access.

El resumen es que entre 2014, año en el que se hizo por primera vez, y el que acaba de terminar, ha aumentado el número de personas que usan Interet, pero aún queda un 57% de la población mundial que no está conectada.

Las cuatro grandes barreras para ello son, al menos según el estudio de Facebook:

  • Disponibilidad, o la proximidad de las infraestructuras necesarias para disponer de acceso a Internet: 300 millones más de personas tienen acceso de banda ancha a Internet en 2015 que en 2014.
  • Asequibilidad, o el coste del acceso comparado con los ingresos: 500 millones más de personas que a finales de 2013 pueden ahora permitirse 500 MB al mes.
  • Relevancia, o el que la gente tenga algún motivo para conectarse, como por ejemplo que haya contenidos interesantes en su lengua; en este sentido Facebook ha identificado 55 lenguajes que tienen al menos 100 000 páginas en la Wikipedia.
  • Preparación para conectarse a Internet, lo que dividen en habilidades básicas de leer y escribir (1000 millones de personas carecen de ellas), saber y entender lo que es Internet (más de dos tercios de las personas que no usan Internet en países en desarrollo no entienden lo que es), y en la aceptación social y cultural de esta (las mujeres en países en desarrollo tienen un 25% más de posibilidades de no estar conectadas que los hombres).

Así que aunque las cosas van mejorando, aún queda una importante brecha digital contra la que luchar: 4100 millones de personas aún no están, por unos motivos u otros, conectadas a Internet. Lo de los nativos digitales «ya tal».

Los costes de crear y mantener una aplicación web

Los costes de crear y mantener una aplicación web

La gente de Cushion realizó un interesante ejercicio en el que desglosaron los costes a la hora de crear y mantener una aplicación web a lo largo del tiempo. Se utilizaron a sí mismos como ejemplo; venden su aplicación para que los autónomos puedan gestionar su contabilidad, ingresos, previsiones, agendas, etcétera. El artículo puede leerse al completo en Running Costs.

El proceso de la creación de la aplicación cubre desde la idea inicial hasta el primer prototipo, las pruebas beta («la aplicación está terminada y no se añade nada, solo se corrigen fallos») y el lanzamiento. En el gráfico cada apartado lleva asignado un color y se puede ver cómo varía su coste con el tiempo; en el caso de Cushion fueron unos 20 meses en total. Junto a cada apartado una explicación permite entender por qué se eligió (o de desechó) cada componente del «total».

El resumen es que en el caso de Cushion necesitaron 8700 dólares (unos 8000 euros) para tenerlo todo funcionando a la perfección; el coste mensual acaba siendo de unos 400 euros al mes. Comparar esto con las extravagantes cifras que había que invertir en tecnología hace una o dos décadas asombraría a cualquiera.

Y no estamos hablando de una aplicación simple sin más: el cálculo incluye la compra de algún activo (como el dominio) pero también decenas de servicios muy baratos tanto de back-end (correo, certificados, herramientas de programación y trabajo en grupo) como de front-end (diseño y tipografías).

Una buena parte se la lleva la tecnología, lo cual significa que puede variar según las soluciones y la habilidad de los técnicos, pero también se incluyen necesitadas más mundanas pero no por ello menos importantes, como el coste del soporte técnico/CRM, algo de publicidad y material promocional.

Naturalmente, otro tipo de sitios tienen otro tipo de costes –sin ir más lejos los que dependen de contenidos y requieren principalmente mantenimiento y cambio– pero para las aplicaciones web este ejemplo puede resultar una buena guía de cara a «no dejarse nada».

# Enlace Permanente