La presencia del hueso astrágalo de oveja o ciervo en las excavaciones
arqueológicas más antiguas, parece confirmar que los juegos de azar tienen una
antigüedad de más de 40000 años, y la utilización del astrágalo en culturas más
recientes, ha sido ampliamente documentada. Existen en las pirámides de Egipto
pinturas que muestran juegos de azar que datan del año 3500 a. C. y Herodoto se
refiere a la popularidad y difusión en su época de los juegos de azar, especialmente
la tirada de astrágalos y dados. Los dados más antiguos se remontan a unos 3000
años antes de Cristo y se utilizaron en el juego como en ceremonias religiosas. Las
civilizaciones antiguas, explicaban el azar mediante la voluntad divina. En Grecia
y Roma, utilizaban la configuración resultante de tirar cuatro dados para predecir
el futuro y revelar la voluntad favorable o desfavorable de los dioses. Prácticas
similares se han encontrado en culturas tan distintas como la tibetana, la india
o la judía. Piaget ha hecho notar que esta actitud mágica ante el azar se manifiesta
igualmente en los niños.
En el Renacimiento aparece un nuevo enfoque
global de considerar al mundo, induciendo una observación cualitativamente distinta
de muchos fenómenos naturales. El abandono progresivo de explicaciones teológicas
conduce a una reconsideración de los experimentos aleatorios; y los matemáticos
italianos del siglo XVI, comienzan a interpretar los resultados de experimentos
aleatorios simples. Cardano, establece la equiprobabilidad de aparición de las
caras de un dado a largo plazo. A finales del siglo XVI, existía un intuitivo
pero preciso análisis empírico de los resultados aleatorios. El
desarrollo del análisis matemático de los juegos de zar se produce lentamente
durante los siglos XVI y XVII, y algunos autores consideran como origen del cálculo
de probabilidades la resolución del problema de los puntos en la correspondencia
entre Pascal y Fermat en 1654. El cálculo de probabilidades se consolida como
disciplina independiente en el período que transcurre desde la segunda mitad del
siglo XVII hasta comienzos del siglo XVIII. La teoría
de la probabilidad fue aplicada con buenos resultados a las mesas de juego y con
el tiempo a otros problemas socioeconómicos. Durante
el siglo XVIII el cálculo de probabilidades se extiende a problemas físicos y
actuariales (seguros marítimos). El factor principal impulsor es el conjunto de
problemas de astronomía y física que surgen ligados a la contrastación empírica
de la teoría de Newton. Estas investigaciones van a ser de importancia fundamental
en el desarrollo de la Estadística. La industria de
los seguros, que nació en el siglo XIX, requería un conocimiento exacto del riesgo
de perder pues de lo contrario no se podían calcular las pólizas. Al cabo de cincuenta
años, muchos centros de enseñanza, estaban estudiando la probabilidad como un
instrumento que les permitiría entender los fenómenos sociales. La
necesidad de comparar con exactitud los datos observados con la teoría requería
un tratamiento riguroso del mismo, que va a dar lugar a la teoría de errores. D.
Bernoulli proporciona la primera solución al problema de estimar una cantidad
desconocida a partir de un conjunto de mediciones de su valor que, por el error
experimental, presentan variabilidad. Fue pionero en la aplicación del cálculo
infinitesimal al cálculo de probabilidades. También
Abraham de Moivre, el reverendo Thomas Bayes y Joseph Lagrange inventaron fórmulas
y técnicas de probabilidad. El impulso fundamental
proviene de la obra de Pierre Simon, Marqués de Laplace, quien indujo la primera
definición explícita de probabilidad y desarrolló la ley normal como modelo para
describir la variabilidad de los errores de medida; también formuló y estimó el
primer modelo explicativo estadístico. Por su parte, Gauss hizo su aportación
en la estimación de modelos estadísticos. Bravais,
geólogo y astrónomo, es el primero en considerar la relación entre errores de
medida dependientes entre sí; Benjamín Pierce propone el primer criterio para
rechazar observaciones heterogéneas con el resto y S. Newcomb, el más famoso astrónomo
americano del siglo XIX, introduce los primeros métodos de estimación cuando hay
errores fuertes en algunos datos (Estimación Robusta). TOMA
DE DECISIONES
En la actualidad la teoría matemática de
la probabilidad constituye el fundamento de las aplicaciones estadísticas tanto
en la investigación social como en la toma de decisiones. Vivimos
en un mundo donde somos incapaces de pronosticar el futuro con absoluta certeza.
La necesidad de sortear la incertidumbre nos lleva a estudiar y aplicar la teoría
de la probabilidad. En muchos casos nosotros, como ciudadanos honestos, tendremos
algún conocimiento sobre los posibles resultados de una decisión. Si organizamos
esta información y la analizamos sistemáticamente, podremos reconocer nuestras
suposiciones, comunicar a otros nuestro razonamiento y tomar una decisión más
inteligente de la que lograríamos recurriendo a un método que no sea científico. El
hombre de negocios, así como el jugador de póquer o el estratega militar, debe
también tomar decisiones en condiciones de incertidumbre con respecto al futuro.
Su apreciación del futuro se manifiesta al relacionar una probabilidad numérica
con cada evento posible que pueda influir en el resultado de sus decisiones, y
si utiliza estas probabilidades, junto con información de índole económica, mejora
el proceso de toma de decisiones. Para tener éxito
en la toma de decisiones, se necesita la capacidad de tratar sistemáticamente
con la incertidumbre misma mediante cuidadosas evaluaciones y aplicaciones de
métodos estadísticos concernientes a las actividades de los negocios. LA
TEORÍA DE LA PROBABILIDAD La probabilidad relacionada
con un evento es un número comprendido entre 0 y 1, y representa el riesgo o la
posibilidad de que ocurra ese evento. Una probabilidad de (P = 0) significa que
el evento es imposible; si P = 0.50, es tan probable que el evento ocurra como
que no ocurra; si P = 1, es seguro que suceda. El valor de P no puede ser negativo
ni mayor que uno. Se puede considerar que la probabilidad
es la frecuencia relativa de "éxitos" o aciertos (es decir, la ocurrencia de un
evento determinado) en un proceso aleatorio en que se ha repetido un gran número
de pruebas o ensayos. La frecuencia relativa es el número de "éxitos" dividido
entre el número de pruebas efectuadas. Fuentes
de Probabilidades Es posible estimar probabilidades
mediante cualquiera de las tres siguientes maneras alternativas:
- Frecuencia relativa de eventos pasados. Las probabilidades
pueden estimarse a partir de las frecuencias relativas que se observen en un experimento
controlado, o mediante muestreo de un universo grande y finito. La probabilidad
a priori (previa) se deduce de la experiencia obtenida de la observación prolongada.
Las
probabilidades de eventos complicados pueden determinarse a partir de las probabilidades
de eventos más sencillos, por medio de un método de simulación, utilizando un
modelo experimental diseñado para representar las condiciones reales del mismo. - Distribuciones
teóricas. Las probabilidades pueden determinarse sin recurrir a las frecuencias
relativas. Estas probabilidades pueden determinarse a partir de la distribución
binomial, sin recurrir a experimentos o muestras basadas en la experiencia pasada.
La validez de dichas distribuciones teóricas depende de cuán fielmente las hipótesis
representen la realidad.
- Apreciación subjetiva.
Si ninguno de los métodos anteriormente mencionados pueden utilizarse, el responsable
de la toma de decisiones debe estimar las probabilidades en base a su juicio o
criterio y experiencia. Una probabilidad subjetiva es una evaluación que una persona
que toma decisiones hace acerca de la vero - similitud relativa de que ocurra
un evento incierto, o sea, representa las "apuestas" que se hacen sobre la concurrencia
de ese evento. Tales apreciaciones son sumamente personales y, por lo tanto, dos
individuos pueden asignar diferentes probabilidades subjetivas al mismo evento.
TIPOS DE PROBABILIDADES
- Probabilidad simple. Probabilidad de que el dato escogido tenga
una característica.
- Probabilidad conjunta. Probabilidad
de escoger un dato con dos (o más) características específicas.
- Probabilidad
marginal (al margen de la tabla). No es más que la probabilidad simple, vista
con otro enfoque; o sea, mientras que la probabilidad simple es un concepto singular,
la probabilidad marginal es esencialmente una suma de probabilidades conjuntas.
- Probabilidad
condicional. La característica específica del dato es la condición (condiciona
la probabilidad).
APLICACIONES La
complejidad de los negocios en los últimos años, ha incrementado el uso de la
estadística para tomar decisiones en cualquier nivel de la administración. Las
aplicaciones de métodos estadísticos en las diferentes áreas son numerosas; por
ejemplo: gráficas y tablas estadísticas son usadas frecuentemente por gerentes
de ventas para representar hechos numéricos de ventas; métodos de muestreo son
empleados por investigadores de mercado, al hacer encuestas sobre las preferencias
del consumidor sobre ciertas marcas de artículos competitivos; métodos de control
de calidad, aplicados en producción, etc.
|