El viejo problema de leer datos en casi-tiempo-real, procesar de acuerdo a una cantidad muy grande de datos históricos y responder rápidamente, el viejo problema que sigue siendo el nuevo problema. Y como problema que es. ahora cualquiera ofrece cualquier cosa para aprender sobre Big Data y se supone que todos queremos aprender. Se presume por principio que es más facil hacer cosas con muchos datos que con pocos. Nos ahogamos en números y en mensajes que viajan de un lugar al otro porque es lo que se espera, aunque hace diez años era ridículo siquiera pensarlo.
Sigue siendo vigente el paradigma del Apollo 11, en el que un parche de seres humanos llegaron a la Luna, caminaron y volvieron con un par de computadores de 64 KB con un conjunto de instrucciones relativamente pequeño, sólo que ahora este paradigma es pertinente bajo una nueva perspectiva: El aterrizaje de ese módulo lunar casi se aborta por un overflow de datos que no eran necesarios en ese momento; el desbordamiento por exceso de datos es ahora un evento cotidiano y se asume como necesario, al menos hasta que "todos aprendamos sobre Big Data".
abril 04, 2018
Suscribirse a:
Comentarios de la entrada (Atom)
Lo más fresco
Ranthought - 20241121
En el mismo sentido del otro post , hoy me cruzo con otra idea relacionada. Hace quince años, todos editábamos archivos de texto, creados co...
-
Parce, podrán decir lo que quieran, pero cada vez que uno manda un pull request a un proyecto en el que no ha estado antes, eso se siente m...
-
Aquel que ha jugado videojuegos en alguna consola, habrá comprobado que parte de la esencia está en sostener el control con las dos manos pa...
-
Una de las cosas más amables que uno puede ofrecerle a alguien es la libertad de no tener que repetir rituales y saludos que la otra person...
No hay comentarios.:
Publicar un comentario