Foros - Stratos

Programadores => General Programadores => Mensaje iniciado por: matriax en 14 de Mayo de 2011, 01:47:44 PM

Título: Duda en velocidad de procesamiento de datos
Publicado por: matriax en 14 de Mayo de 2011, 01:47:44 PM
Un procesador de textos(UltraEdit) tarda unos 6 segundos en cambiar 46.000.000 de digitos(Siendo este X) de un archivo de .txt por otro(Siendo este Y) mediante busqueda y sustitucion utilizando de media el 50% de un procesador de 3ghz. El archivo solo tiene 2 valores, "X" e "Y".

Mi pregunta es, si se tuvieran 46.000.000 de coordenadas siendo estas con un valor X cuanto tardaria un procesador de 3ghz(Trabajando a full) en cambiar todos los valores de esas coordenadas por Y?  ¿Seria logico pensar que tardaria algo similar? En caso de que no fuera asi ¿Alguien sabe +o- de cuantos segundos estariamos hablando?

Obviamente depende del algorimto utilizado pero vamos con algo normal o decente.
Título: Re: Duda en velocidad de procesamiento de datos
Publicado por: Hechelion en 14 de Mayo de 2011, 09:52:59 PM
En realidad depende de muchos factores, no sólo del algoritmo, está el OS, el lenguaje usado (interpretado, compilado), la optimización, etc

Lo mejor que puedes hacer, es implementarlo y medir el tipo que le toma la ejecución y asumir que ese es un valor medio.


Yo trabajo mucho a nivel de hardware (Trabajo en automatización industrial), donde muchos de esos factores son conocidos y aún así, obtener un valor real de lo que demora un programa no es trivial, lo más fácil, es que el propio software de programación me entrega una medía del tiempo de ciclo del programa. Si no, tienes que saber cuanto tiempo real te toma cada instrucción y luego multiplicarla por la cantidad de repeticiones, pero en un PC no es exacto, ya que windows no te asegura que un proceso sea deterministico.