Resumen:
Al medir repetidas veces una misma variable, se logra disminuir el error del resultado final y del valor medio más probable, logrando así también una menor variabilidad de los datos obtenidos. El presente trabajo tiene como objetivo estimar el periodo de luz intermitente producido por un faro en el laboratorio, estudiando ademas el comportamiento de cada distribución de valores mediante histogramas y una función gaussiana y verificar al fin si se cumple la hipótesis que el desvío estándar disminuye con el aumento de N; Como primer parte del trabajo, se ha tomado el tiempo de reacción de aquel participante que tomara el rol de observador. Con ayuda del programa Origin, se han volcado los 100 valores obtenidos referentes a los intervalos de luz, que luego fueron divididos en grupos de distintos n, para poder analizar la influencia del mismo en los valores estadísticos de interés mediante la comparación y análisis de los gráficos mencionados.
El tiempo de reacción del observador calculado es 0.203 ± 0.011 segundos, obtenido de forma indirecta. El periodo del faro obtenido de forma directa es 1.14 ± 0.21 segundos.
Introducción:
Para poder comprender lo desarrollado en este trabajo es necesario entender que lo que medimos con cualquier instrumento, se lo considera una magnitud física; es decir que en sí, medimos magnitudes físicas.
Cuando se realizan varias mediciones de una variable, se espera obtener valores que difieren entre sí debido a los distintos errores posibles, ya sean propios del instrumento o del observador. Debido a esto, se construye lo que llamamos intervalo de confianza. El mismo se basa en poder predecir el valor posible de una observación futura con cierto grado de confianza: El valor medio obtenido de los datos, sumando y restando un desvío estándar nos proporciona un intervalo de confianza con una probabilidad del 68%; mientras que al sumar y restar dos desvíos estándar obtenemos un intervalo con un 95% de confianza. Esto significa que hay un 95% de probabilidad de que una observacion futura se encuentre en este intervalo.
La medición se informa entonces, como un promedio entre todos los datos obtenidos, valor llamado en nuestro caso 𝑇̅ (T medio), el cual se calcula como:
T̅=\(\left(\Sigma medida\ x\right)\)/ (n) (1)
El intervalo de incerteza de una medida se define como:
√\(\sqrt{σN2+σE2}\) (2)
Donde σn es:
\(\sqrt{\Sigma\left(errores^2\right)}\) (3)
· Error de apreciación, σap: si el instrumento está correctamente calibrado la incertidumbre que tendremos al realizar una medición estará asociada a la mínima división de su escala o a la mínima división que podemos resolver con algún método de medición.
· Error de exactitud, σexac: representa el error absoluto con el que el instrumento en cuestión ha sido calibrado.
· Error de interacción, σint: esta incerteza proviene de la interacción del método de medición con el objeto a medir. Su determinación depende de la medición que se realiza y su valor se estima de un análisis cuidadoso del método usado.