Si bien los SSD son mucho más rápidos que los discos duros convencionales a la vez que menos propensos a fallos son mucho más caros … aunque es algo que se puede permitir un usuario normal. Ahora si te toca desplegar millones de discos a lo largo y ancho del mundo seguro que acabarás usando discos duros tradicionales para mantener controlados los costes.

Esto es lo que justamente le pasa a Google con su nube que por un lado tiene que llevar el control de millones de discos asegurando al mismo tiempo la seguridad de la información de sus clientes. Por eso y como no podía ser menos, están aplicando técnicas de ML para predecir posibles averías en los mismos marcando como defectuosos han fallado o han tenido tres o más “avisos” en los treinta días anteriores.

Para llevar a cabo utilizan la información de cientos de variables y que van desde los valores del S.M.A.R.T. (Self Monitoring Analysis and Reporting Technology) o los datos de fabricación (modelo y batch) de cada disco (siempre SEAGATE, por cierto) hasta los LOGs de las reparaciones o de los sistemas de Online Vendor Diagnostics (OVD), Field Accessible Reliability Metrics (FARM), etc.

Evidentemente dada la cantidad de datos, Google (con “ayuda” de ACCENTURE) está utilizando su propia nube para el desarrollo de los algoritmos de Machine Learning llegando a la conclusión que su clasificador basado en AutoML tables es muy superior a métodos alternativos desarrollados en Tensorflow como el deep transformer-model.

377
Suscribirse
Notificación
0 Comments
Inline Feedbacks
Ver todos los comentarios
0
¡Aquí puedes dejar tus comentarios!x