Professional Documents
Culture Documents
resolver algunos problemas relacionados con los juegos de azar. Aunque algunos marcan sus inicios cuando
Cardano (jugador donde los haya) escribió sobre 1520 El Libro de los Juegos de Azar (aunque no fué
publicado hasta más de un siglo después, sobre 1660) no es hasta dicha fecha que comienza a elaborarse
una teoría aceptable sobre los juegos.
Christian Huygens conoció la correspondencia entre Blaise Pascal y Pierre Fermat suscitada por el caballero
De Méré, se planteó el debate de determinar la probabilidad de ganar una partida, y publicó (en 1657) el
primer libro sobre probabilidad: De Ratiociniis in Ludo Aleae, (Calculating in Games of Chance), un tratado
sobre juegos de azar.Se aceptaba como intuitivo el concepto de equiprobabilidad, se admitía que la
probabilidad de conseguir un acontecimiento fuese igual al cociente entre
Durante el siglo XVIII, debido muy particularmente a la popularidad de los juegos de azar, el cálculo de
probabilidades tuvo un notable desarrollo sobre la base de la anterior definición de probabilidad. Destacan
en 1713 el teorema de Bernoulli y la distribución binomial, y en 1738 el primer caso particular estudiado
por De Moivre » , del teorema central del límite. En 1809 Gauss » inició el estudio de la teoría de errores y
en 1810 Laplace, que había considerado anteriormente el tema, completó el desarrollo de esta teoría. En
1812 Pierre Laplace » publicó Théorie analytique des probabilités en el que expone un análisis matemático
sobre los juegos de azar.
A mediados del siglo XIX, un fraile agustino austríaco, Gregor Mendel, inició el estudio de la herencia, la
genética, con sus interesantes experimentos sobre el cruce de plantas de diferentes características. Su
obra, La matemática de la Herencia, fue una de las primeras aplicaciones importantes de la teoría de
probabilidad a las ciencias naturales
Desde los orígenes la principal dificultad para poder considerar la probabilidad como una rama de la
matemática fue la elaboración de una teoría suficientemente precisa como para que fuese aceptada como
una forma de matemática. A principios del siglo XX el matemático ruso Andrei Kolmogorov » la definió de
forma axiomática y estableció las bases para la moderna teoría de la probabilidad que en la actualidad es
parte de una teoría más amplia como es la teoría de la medida
estadistica
Se puede afirmar que la historia de la estadística comienza alrededor de 1750 aunque, con el
tiempo, ha habido cambios en la interpretación de la palabra «estadística». En un principio, el
significado estaba restringido a la información acerca de los estados. Este fue extendido
posteriormente para incluir toda colección de información de cualquier tipo, y más tarde fue
extendido para incluir el análisis e interpretación de los datos. En términos modernos, "estadística"
significa tanto conjuntos de información recopilada, por ejemplo registros de
temperatura, contabilidad nacional, como trabajo analítico que requiera inferencia estadística.
Introducción[editar]
En el siglo XVIII , el término "estadística" designaba la colección sistemática de
datos demográficos y económicos por los estados. A principios del siglo XIX, el significado de
"estadística" fue ampliado para incluir la disciplina ocupada de recolectar, resumir y analizar los
datos. Hoy la estadística es ampliamente usada en el gobierno, los negocios y todas las ciencias.
Las computadoras electrónicas han acelerado la estadística computacional y ha permitido a los
estadísticos el desarrollo de métodos que usan recursos informáticos intensivamente.
El término "estadística matemática" designa las teorías matemáticas de la probabilidad e inferencia
estadística, las cuales son usadas en la estadística aplicada. La relación entre estadística y
probabilidades se fue desarrollando con el tiempo. En el siglo XIX, las estadísticas usaron de forma
gradual la teoría de probabilidades, cuyos resultados iniciales fueron encontrados en los siglos XVII
y XVIII, particularmente en el análisis de los juegos de azar (apuestas). Para 1800, la astronomía
usaba modelos probabilísticos y teorías estadísticas, particularmente el método de los mínimos
cuadrados, el cual fue inventado por Legendre y Gauss. La incipiente teoría de las probabilidades y
estadísticas fue sistematizada y extendida por Laplace; después de este, las probabilidades y
estadísticas han experimentado un continuo desarrollo. En el siglo XIX, el razonamiento estadístico
y los modelos probabilísticos fueron usados por las ciencias sociales para el avance las nuevas
ciencias de psicología experimental y sociología, y por las ciencias físicas
en termodinámica y mecánica estadística. El desarrollo del razonamiento estadístico estuvo
fuertemente relacionado con el desarrollo de la lógica inductiva y el método científico.
La estadística puede ser considerada no como una rama de las matemáticas, sino como una
ciencia matemática autónoma, como las Ciencias de la computación y la investigación de
operaciones. A diferencia de las matemáticas, la estadística tuvo sus orígenes en la administración
pública. Fue usada en la demografía y la economía. Con el énfasis en el aprendizaje de los datos y
en la elaboración de las predicciones más acertadas, la estadística se ha solapado con la Teoría
de la decisión y la microeconomía. Con el enfoque de los datos, la estadística se ha solapado con
la ciencia de la información y las Ciencias de la computación.
Etimología[editar]
El término «estadística», en última instancia, deriva la palabra del neolatín statisticum
collegium (consejo de estado) y la palabra italiana statista (‘hombre de estado’ o político). La
palabra alemana statistik, introducida primeramente por Godofredo Achenwall (1749),
originalmente designaba el análisis de datos acerca del estado, significando la ‘ciencia del estado’
(llamado posteriormente «aritmética política» en idioma inglés). A principios del siglo XIX, adquirió
el significado de colección y clasificación de datos. El término fue introducido en Inglaterra en 1792
por sir John Sinclair cuando publicó el primero de los 21 volúmenes titulados Statistical account of
Scotland.1
De esta forma, el propósito original principal de la statistik eran los datos usados por el gobierno y
los cuerpos administrativos (a menudo centralizados). La colección de datos acerca de estados y
localidades continúa, en mayor parte a través de servicios estadísticos nacionales e
internacionales. En particular, los censos proveen frecuentemente información actualizada acerca
de la población.
El primer libro en tener ‘estadísticas’ en su título fue “Contributions to Vital Statistics” por Francis
GP Neison, registrado a la Medical Invalid and General Life Office (1 era edición 1845, 2nda ed.
1846, 3.ª ed. 1857).[cita requerida]
Orígenes en probabilidades[editar]
El uso de los métodos estadísticos se remonta al menos al siglo V a. C. El historiador Tucídides en
su Historia de la Guerra del Peloponeso2 describe como los atenienses calculaban la altura de la
muralla de Platea, contando el número de ladrillos de una sección expuesta de la muralla que
estuviera lo suficientemente cerca como para contarlos. El conteo era repetido varias veces por
diferentes soldados. El valor más frecuente (la moda en términos más modernos) era tomado como
el valor del número de ladrillos más probable. Multiplicando este valor por la altura de los ladrillos
usados en la muralla les permitía a los atenienses determinar la altura de las escaleras necesarias
para trepar las murallas.
En el poema épico indio Majabhárata (libro 3: la historia del rey Nala), el rey Ritupama estimaba el
número de frutas y hojas (2095 frutas y 50,00,000 hojas (5 crores)) en dos grandes hojas de un
árbol Vibhitaka contándolos en un solo vástago. Este número era luego multiplicado por el número
de vástagos en las ramas. Este estimado fue posteriormente verificado y se halló que estaba muy
cerca del número verdadero. Con el conocimiento de este método Nala pudo subsecuentemente
reconquistar su reino.
El primer escrito de estadística fue encontrado en un libro del siglo IX titulado Manuscrito sobre el
descifrado de mensajes criptográficos, escrito por Al-Kindi (801-873). En su libro, Al-Kindi da una
descripción detallada sobre el uso de las estadísticas y análisis de frecuencias en el descifrado de
mensajes, este fue el nacimiento tanto de la estadística como del criptoanálisis. 34
La Prueba del Pyx es una prueba de pureza de la moneda del Royal Mint, que ha sido llevada a
cabo regularmente desde el siglo XII. La prueba en sí misma está basada en métodos de muestreo
estadístico. Después de acuñar una serie de monedas ―originalmente de 10 libras de plata― una
moneda singular era colocada en el Pyx (una caja en la Abadía de Westminster). Después de un
tiempo ―ahora una vez al año― las monedas son retiradas y pesadas. Luego, una muestra de
monedas retiradas de la caja es probada por pureza.
La Nuova Crónica, una historia de Florencia del siglo XIV escrita por el banquero florentino y
oficial Giovanni Villani, incluye mucha información estadística.sobre la población, ordenanzas,
comercio, educación y edificaciones religiosas, y ha sido descrito como la primera introducción de
la estadística como elemento positivo en la historia,5 aunque ni el término ni el concepto de la
estadística como campo específico existía aún. Esto se demostró que era incorrecto después del
hallazgo del libro de Al-Kindi sobre análisis de frecuencias.34
Aunque era un concepto conocido por los griegos, la media aritmética no fue generalizada a más
de dos valores hasta el siglo 16. La invención del sistema decimal por Simon Stevin en 1585
parece haber facilitado estos cálculos. Este método fue adoptado por primera vez en astronomía
por Tycho Brahe, el que intentaba reducir errores en sus estimados de las localizaciones de varios
cuerpos celestiales.
La idea de la mediana se originó en el libro de navegación de Edward Wright (Certaine errors in
navigation) en 1599 en una sección concerniente a la determinación de una localización con un
compás. Wright sintió que este valor era el que más probablemente estuviera correcto en una serie
de observaciones.
John Graunt en su libro Natural and Political Observations Made upon the Bills of Mortality, estimó
la población de Londres en 1662 a través de registros parroquiales. Él sabía que había cerca de
13,000 funerales al año en Londres y que de cada once familias tres personas morían por año. El
estimo de los registros parroquiales que el tamaño promedio de las familias era 8 y calculó que la
población de Londres era de cerca de 384,000. Laplace en 1802 estimó la población de Francia
con un método similar.
Los métodos matemáticos de la estadística surgieron de la teoría de probabilidades, la cual tiene
sus raíces en la correspondencia entre Pierre de Fermat y Blaise Pascal (1654). Christiaan
Huygens (1657) proveyó el primer tratamiento científico sobre el tema que se conozca hasta la
fecha. El libro Ars Conjectandi de Jakob Bernoulli (póstumo 1713) y La doctrina de las
probabilidades (1718) de Abraham de Moivre trataron el tema como una rama de las matemáticas.
En su libro, Bernoulli introdujo la idea de representar certeza completa como el número 1 y la
probabilidad como un número entre cero y uno.
Galileo luchó contra el problema de errores en las observaciones y había formulado ambiguamente
el principio de que los valores más probables de cantidades desconocidas serían aquellos que
hicieran los errores en las ecuaciones razonablemente pequeños. El estudio formal en teoría de
errores puede ser originado en el libro de Roger Cotes (Opera Miscellanea, póstumo 1750). Tobias
Mayer, en su estudio de los movimientos de la Luna (Kosmographische Nachrichten, Núremberg,
1750), inventó el primer método formal para estimar cantidades desconocidas generalizando el
promedio de las observaciones bajo circunstancias idénticas al promedio de los grupos de
ecuaciones similares.
Un primer ejemplo de lo que posteriormente fue conocido como la curva normal fue estudiado
por Abraham de Moivre, quien trazó esta curva en noviembre 12, 1733.6 De Moivre estaba
estudiando el número de caras que ocurrían cuando una moneda “justa” era lanzada.
En sus memorias ―Un intento por mostrar la emergente ventaja de tomar la media de un número
de observaciones en astronomía práctica― preparada por Thomas Simpson en 1755 (impreso en
1756) aplicaba por primera vez la teoría a la discusión de errores en observaciones. La reimpresión
(1757) de sus memorias sostiene el axioma que errores positivos y negativos son igualmente
probables, y que hay ciertos valores límites dentro de los cuales todos los errores se encuentran;
los errores continuos son discutidos y se provee una curva de probabilidad. Simpson discutió
varias posibles distribuciones de error. Primero consideró la distribución uniforme y después la
distribución triangular discreta simétrica, seguida por la distribución triangular continua simétrica.
Ruder Boškovic en 1755 se basó en su trabajo sobre la forma de la Tierra propuesto en el libro De
litteraria expeditione per pontificiam ditionem ad dimetiendos duos meridiani gradus a PP. Maire et
Boscovicli para proponer que el verdadero valor de una serie de observaciones sería aquel que
minimizara la suma de los errores absolutos. En terminología moderna este valor es la media.
Johann Heinrich Lamber en su libro de 1765 Anlage zur Architectonic propuso el semicírculo como
una distribución de errores:
con –1 = x = 1.
Pierre-Simon Laplace (1774) hizo su primer intento de deducir una regla para la combinación
de observaciones desde los principios de la teoría de las probabilidades. El representó la ley
de a probabilidad de errores mediante una curva y dedujo una fórmula para la media de tres
observaciones.
Laplace en 1774 notó que la frecuencia de un error podía ser expresada como una función
exponencial de su magnitud una vez descartado el signo.78 Esta distribución es ahora conocida
como distribución de Laplace.
Lagrange propuso una distribución parabólica de errores en 1776:
con -1 = x = 1.
Laplace en 1778 publicó su segunda ley de errores en la cual notó que la frecuencia
de un error era proporcional a la función exponencial del cuadrado de su magnitud.
Esto fue descubierto subsecuentemente por Gauss (posiblemente en 1797) y es
ahora mejor conocida como distribución normal, la cual es de importancia central en la
estadística.9 Esta distribución fue referida como «normal» por primera vez por Pierce
en 1873, quien estaba estudiando las medidas de error cuando un objeto era dejado
caer sobre una superficie de madera.10 Escogió el término «normal» debido a su
ocurrencia frecuente en variables que ocurrían en la naturaleza.
Lagrange también sugirió en 1781 otras dos distribuciones para errores ―una
distribución coseno―:
con -1 = x = 1 y una distribución logarítmica
Inferencia[editar]
Charles S. Peirce (1839-1914) formuló teorías frecuentistas de estimación y
prueba de hipótesis (1877-1878) y (1883), cuando introdujo la “confianza”.
Pierce también introdujo experimentos aleatorios controlados y a ciegas con
diseño de medidas repetidas.24 Pierce inventó un diseño óptimo para
experimentos sobre gravedad.
Estadísticas bayesianas[editar]
Punto 1
Hacia el año 3000 a. de C. los babilonios utilizaban ya pequeñas tablillas de arcilla para recopilar datos sobre
la producción agrícola y los géneros vendidos o cambiados mediante trueque. En el antiguo Egipto, los
faraones
lograron recopilar, alrededor del año 3050 a. de C., prolijos datos relativos a la población y la riqueza del país;
de acuerdo con el historiador
griego Heródoto, dicho registro de la riqueza y la población se hizo con el propósito de preparar la
construcción de las pirámides. En el mismo Egipto, Ramsés II hizo un censo de las tierras con el objeto de
verificar un nuevo reparto.
En el antiguo Israel, la Biblia da referencia, en el libro de los N ú m e r o s, de los datos estadísticos obtenidos
en dos recuentos de la población hebrea. El rey David, por otra parte, ordenó a Joab, general del ejército,
hacer un censo de Israel con la finalidad de conocer el número de habitantes, y el l ibro C r ó n i c a s describe
el bienestar material de las diversas tribus judías.
En China ya había registros numéricos similares con anterioridad al año 2000 a. de C. Los griegos, hacia el
año 594 a. de C., efectuaron censos periódicamente con fines tributarios, sociales (división de tierras) y
militares (cálculo de recursos y hombres disponibles). La investigación histórica revela que se realizaron 69
censos para calcular los impuestos, determinar los derechos de voto y ponderar la potencia guerrera.
Pero fueron los romanos, maestros de la organización política, quienes mejor supieron emplear los recursos de
la estadística. Cada cinco años llevaban a cabo un censo de la térpoblación, y los funcionarios públicos tenían
la obligación de anotar nacimientos, defunciones y matrimonios, sin olvidar los recuentos periódicos del
ganado y de las riquezas contenidas en las tierras conquistadas. En la época del nacimiento de Cristo sucedía
uno de estos empadronamientos de la población bajo la autoridad del Imperio.
Durante los mil años posteriores a la caída del Imperio Romano se hicieron muy pocas operaciones
estadísticas, con la notable excepción de las relaciones de tierras pertenecientes a la Iglesia, compiladas por
Pipino el Breve y por Carlomagno en los años 758 y 762, respectivamente. En Francia se realizaron algunos
censos parciales de siervos durante el siglo IX.
Después de la conquista normanda de Inglaterra en 1066, el rey Guillermo I encargó un censo en el año 1086.
La información en él obtenida se recoge en el Domesday Book, o Libro del Gran Catastro, que es un
documento acerca de la propiedad, la extensión y el valor de las tierras en Inglaterra. Esta obra fue el primer
compendio estadístico de ese país.
Aunque Car lomagno en Francia y Guillermo el Conquistador en Inglaterra trataron de revivir la técnica
romana, los métodos estadísticos permanecieron casi olvidados durante la Edad Media. Durante los siglos
XV, XVI y XVII, hombres como Leonardo de Vinci, Nicolás Copérnico, Galileo Galilei, William Harvey,
Francis Bacon y René Descartes hicieron grandes operaciones con base en el método científico, de tal forma
que cuando se crearon los Estados nacionales y surgió como fuerza el comercio
internacional, había ya un método capaz de aplicarse a los datos económicos.
Debido al temor que Enrique VII tenía de la peste, en el año 1532 empezaron a registrarse en Inglaterra las
defunciones causadas por esta enfermedad. En Francia, más o menos por la misma época, la ley exigía a los
clérigos registrar los bautismos, fallecimientos y matrimonios.
Durante un brote de peste que apareció a fines del siglo XVI, el gobierno inglés comenzó a publicar
estadísticas semanales de los decesos. Esa costumbre continuó muchos años, y en 1632 los llamados Bills of
Mortality (Cuentas de Mortalidad) ya contenían datos sobre los nacimientos y fallecimientos por sexo. En
1662, el capitán John Graunt compiló documentos que abarcaban treinta años, mediante los cuales efectuó
predicciones sobre el número de personas que morirían de diversas enfermedades, así como de las
proporciones de nacimientos de hombres y mujeres que cabía esperar. El trabajo de Graunt, condensado en su
obra Natural and polit ical observations… made upon the Bi lls of Mortality (Observaciones políticas y
naturales…hechas a partir de las Cuentas de Mortalidad), fue un esfuerzo de inferencia y teoría estadística .
Personajes de Estadística
Bayes, Thomas
Bernouilli, Jakob
Chebyshev, Pafnuti
Cox, Gertrude Mary
de Fermat, Pierre
De Moivre, Abraham
Dogson, Charles
Fisher, Ronald Aylmer
Galton, Francis
Gauss, Carl Friedrich
Gosset, William Sealey
Kolmogorov, Andrei Nikolaevich
Laspeyres, Etienne L. y Paasche, Hermann
Bayes, Thomas
Clérigo inglés de la primera mitad del siglo XVIII (1702?-1761)
Padre de la estadística bayesiana.
Más información
Volver
Bernouilli, Jakob
Matemático francés (1654-1705)
Miembro de una familia de grandes científicos (Jakob, Daniel y Nikolaus), entre sus grandes
trabajos se puede destacar El arte de pronosticar (póstumo) y una ley de los grandes números.
Más información
Volver
Chebyshev, Pafnuti
Matemático ruso (1821 - 1894)
También conocido como Tchebychew, Chebychev o Cebisev.
Defendió la tesis "Un intento de análisis elemental de la teoría probabilística".
Recibió la medalla de plata por el trabajo Cálculo de las raíces de las ecuaciones.
La disertación de la integración con ayuda de algoritmos, le hizo conseguir la plaza de profesor
titular en la Universidad de San Petersburgo.
Pero es más conocido entre los estudiantes de estadística, principalmente, por su Desigualdad de
Chebyshev, que en un caso práctico sería: "La probabilidad de un elemento para cualquier
distribución estadística de encontrarse entre la media y menos dos desviaciones típicas, y la media
más dos desviaciones típicas es mayor que el 75%".
Más información
Volver
de Fermat, Pierre
De Moivre, Abraham
Científico importante en muchos campos de la matemática (1667-1754).
Cooperó en el cambio significativo de la estadística con el paso de la distribución binomial a la
normal. Entre sus trabajos encontramos The Doctrine of Chances ("La Doctrina de la suerte"), que
utiliza el cálculo de probabilidades.
Más información
Volver
Dogson, Charles
Matemático inglés (1832-1898)
Conocido por el gran público como Lewis Carroll, autor de Alícia en el país de las maravillas, A
Través del espejo... Sus relatos se pueden establecer próximos a la teoría de juegos.
Más información
Volver
Galton, Francis
Creadores de los índices del coste de la vida que hoy se continúan utilizando.
Volver
Pearson, Karl
Quételet, Adolphe
Snedecor, George
Matemático y estadístico estadounidense. (1881-1974)
Trabajó en el análisis de la varianza, el análisis de datos, el diseño de experimentos y la
metodología estadística. Dio nombre a la Distribución F.
Más información
Volver
Biografía:
Pascalina diseñada por Blaise Pascal. Musée des Arts et Métiers, París.
Tras ese episodio, Étienne fue nombrado por Richelieu como encargado de cobro de impuestos en Ruán,
Normandía. Lo que, lejos de ser un premio, se convirtió en una labor titánica, puesto que los archivos fiscales
de la ciudad se habían vuelto un caos. En 1642, en un intento de ayudar a su padre en esta tarea, que
implicaba continuos y extenuantes cálculos de impuestos y deudas, Blaise (que todavía no había cumplido
diecinueve años) inventó y construyó la llamada Pascalina, la primera máquina sumadora de la historia,
precursora de las calculadoras de hoy. Era de funcionamiento mecánico y basado en engranajes. Los
historiadores de la computación reconocen su gran contribución en este campo. La Pascalina era capaz de
realizar operaciones como la adición y la sustracción. Se pueden encontrar dos ejemplares de la Pascalina en
el museo de Zwinger, en Dresde, Alemania, y en el Musée des Arts et Métiers en París.
Sin embargo, y a pesar de la importancia de estas máquinas como precursoras de la computación, el aparato
no supuso ningún éxito comercial debido a su elevado coste. Terminó convirtiéndose en un juguete y símbolo
de estatus para las clases más ricas de Francia y de Europa. En cualquier caso, Pascal continuó añadiendo
mejoras al diseño y construyó cincuenta máquinas a lo largo de la década siguiente.
Triángulo de Pascal. Cada número es la suma de los dos que están colocados encima de él. El triángulo
demuestra muchas propiedad matemáticas además de presentar los coeficientes binomiales.
En 1653, Pascal publica el Tratado del triángulo aritmético (Traité du triangle arithmétique) en el que describe
las propiedades y aplicaciones del triángulo aritmético o triángulo de Pascal, manera de presentar
coeficientes binomiales (aunque los matemáticos chinos conocían el triángulo desde siglos atrás).
En 1654, incitado por Antoine Gombaud, caballero de Méré, quien le plantea el problema matemático de
dividir una apuesta después de la interrupción anticipada de un juego de azar ("problema de los puntos"),
Blaise mantiene correspondencia con Pierre de Fermat y envía una primera aproximación al cálculo de
probabilidades. El problema consitía en que dos jugadores quieren finalizar un juego anticipadamente y,
dadas las circunstancias en las que se encuentra el juego, pretenden dividir el premio para el ganador de forma
equitativa, teniendo en cuenta las probabilidades que tiene cada uno de ganar el juego a partir de ese punto. A
partir de esa discusión nace el concepto de valor esperado o esperanza matemática. Años más tarde, Pascal
formuló la hoy llamada Apuesta de Pascal, una reflexión filosófica sobre la creencia en Dios, basada en
consideraciones probabilísticas.
El trabajo realizado por Fermat y Pascal en el cálculo de probabilidades permitió crear el marco de trabajo a
partir del cual Leibniz desarrollaría el cálculo infinitesimal.[4]
Después de atravesar una experiencia religiosa profunda en 1654, Pascal prácticamente abandonó sus trabajos
en el campo de la matemática.
Filosofía de la matemática:
La principal contribución de Pascal a la filosofía de la matemática tuvo lugar a través de su obra De l'Esprit
géométrique ("Sobre el Espíritu Geométrico"), escrita originalmente como prefacio a un libro de texto de
geometría para uno de los famosos Petites écoles de Port-Royal. La obra no fue publicada hasta más de un
siglo después de su muerte y en ella Pascal trata el tema del descubrimiento de la verdad, argumentando que
el ideal para descubrir esos postulados es a través de un método mediante el cual todos esos postulados se
fundamenten en verdades ya establecidas. Al mismo tiempo, sin embargo, señalaba que esto era imposible,
puesto que dichas verdades requerían también para su demostración la existencia de otras verdades sobre las
que fundamentarse y que los principios iniciales eran, por tanto, imposibles de alcanzar. Basado en esto,
Pascal argumentaba que el procedimiento utilizado en geometría era tan perfecto como era posible,
asumiendo ciertos principios a partir de los cuales se desarrollaban el resto de postulados, si bien era
imposible demostrar que esos principios iniciales fuesen ciertos.
Pascal también desarrolló en esa obra una teoría de la definición. Distinguió entre definiciones que son
etiquetas convencionales hechas por el escritor y definiciones que se comprenden en el lenguaje, y que son
admitidas y comprendidas de forma universal porque designan de forma natural el objeto de la definición. El
segundo tipo serían características de la filosofía del esencialismo. Pascal defendía que sólo las definiciones
del primer tipo eran importantes para la ciencia y las matemáticas, argumentando que esos campos debían
adoptar la filosofía del formalismoformulada por Descartes.
En su obra titulada De l'Art de persuader ("Del Arte de la Persuasión"), Pascal profundizó en el método
axiomático, y en especial sobre la cuestión de cómo se puede convencer a la gente de la aceptación de
los axiomas sobre los que se basan las conclusiones finales. Pascal coincidía con Montaigne en que era
imposible conseguir la certeza absoluta sobre esos axiomas y conclusiones mediante los métodos disponibles,
y que tan sólo se podía llegar a esos principios a través dela intuición, lo cual subrayaba la necesidad de la
sumisión a Dios para la búsqueda de la verdad.
Pensamiento:
Christiaan Huygens:
Nacimiento:
14 de abril de 1629La Haya,
Fallecimiento:
8 de julio de 1695La Haya,
Ocupación:
Matemático, físico y astrónomo
Christiaan Huygens ['krɪstja:n 'hœyxəns] (14 de abril de 1629 - 8 de juliode 1695) fue
un astrónomo, físico y matemático neerlandés, nacido en La Haya
Biografía:
Huygens nació en el seno de una importante familia holandesa. Su padre, el diplomático Constantin Huygens,
le proporcionó una excelente educación y le introdujo en los círculos intelectuales de la época.
Estudió mecánica y geometría con preceptores privados. En esta primera etapa, Huygens estuvo muy
influido por el matemático francés René Descartes, visitante habitual de la casa de Constantin durante su
estancia en Holanda. Su formación universitaria transcurrió entre 1645 y 1647 en Leiden, y
entre 1647 y 1649 en el Colegio de Orange de Breda. En ambos centros estudió Derecho y Matemáticas,
destacándose en la segunda.
Huygens dedicó sus siguientes años a viajar como embajador de Holanda, visitando, entre otros lugares,
Conpenhague, Roma y París.
En 1660 volvió a París para instalarse definitivamente. Allí mantuvo frecuentes reuniones con importantes
científicos franceses, entre otros, Blas Pascal.
Sin embargo, pronto abandonó la ciudad para marchar a Londres en 1661. Ingresó en la recién formada Royal
Society, donde pudo comprobar los asombrosos avances realizados por los científicos ingleses. Allí pudo
mostrar sus superiores telescopios y conoció a científicos como Robert Hooke o Robert Boyle, entre otros.
En 1666 aceptó la invitación de Colbert, ministro de Luis XIV, para volver a París e incorporarse a
la Academia de las Ciencias Francesa. Dada su experiencia en la Royal Society de Londres, Huygens pudo
llegar a liderar esta nueva academia e influir notablemente en otros científicos del momento, como su amigo y
pupilo Leibniz. Fueron años muy activos para Huygens, pero se enturbiaron por sus problemas de salud y las
guerras del Rey Sol contra Holanda. Huygens abandonó Francia en 1681.
Tras una estancia en su Holanda natal, Huygens decidió volver a Inglaterra en 1689. Allí volvió a relacionarse
con la Royal Society y conoció a Isaac Newton, con el que mantuvo frecuentes discusiones científicas. Y es
que Huygens siempre criticó la teoría corpuscular de la luz y la ley de la Gravitación universal de Newton.
Volvió a Holanda poco antes de morir.
Nunca se casó ni tuvo descendencia, al igual que Newton.
Obra científica:
Matemáticas
Huygens fue uno de los pioneros en el estudio de la Probabilidad, tema sobre el que publicó el libro De
ratiociniis in ludo aleae (Sobre los Cálculos en los Juegos de Azar), en el año 1656. En el introdujo algunos
conceptos importantes en este campo, como la esperanza matemática, y resolvía algunos de los problemas
propuestos por Pascal, Fermat y De Méré.
Además resolvió numerosos problemas geométricos como la rectificación de la cisoide y la determinación de
la curvatura de la cicloide. También esbozó conceptos acerca de la derivada segunda.
Física
Los trabajos de Huygens en Física se centraron principalmente en dos campos: la Mecánica y la Óptica
En el campo de la mecánica publicó su libro Horologium oscillatorum (1675); en el se halla la expresión
exacta de la fuerza centrífuga en un movimiento circular, la teoría del centro del centro de oscilación, el
principio de la conservación de las fuerzas vivas (antecedente del principio de la conservación de la energía)
centrándose esencialmente en las colisiones entre partículas (corrigiendo algunas ideas erróneas de Descartes)
y el funcionamiento del péndulo simple y del reversible.
En el campo de la Óptica elaboró la teoría ondulatoria de la luz, partiendo del concepto de que cada punto
luminoso de un frente de ondas puede considerarse una nueva fuente de ondas (Principio de Huygens). A
partir de esta teoría explicó, en su obra Traité de la lumière, la reflexión, refracción y doble refracción de la
luz. Dicha teoría quedó definitivamente demostrada por los experimentos de Thomas Young, a principios
del siglo XIX.
Astronomía
Aficionado a la astronomía desde pequeño, pronto aprendió a tallar lentes(especialidad de Holanda desde la
invención del telescopio, hacia el año 1608) y junto a su hermano llegó a construir varios telescopios de gran
calidad. Por el método de ensayo y error comprobaron que los objetivos de gran longitud focal
proporcionaban mejores imágenes, de manera que se dedicó a construir instrumentos de focales cada vez
mayores: elaboró un sistema especial para tallar este tipo de lentes, siendo ayudado por su amigo el
filósofo Spinoza, pulidor de lentes de profesión. El éxito obtenido animó a Johannes Hevelius a fabricarse él
mismo sus telescopios.
En 1655 terminó un telescopio de gran calidad: apenas tenía 5 cm de diámetro aunque medía más de tres
metros y medio de longitud, lo que le permitía obtener unos cincuenta aumentos: con este aparato descubrió
que en torno al planeta Saturno existía un anillo (visto por otros astrónomos anteriores pero no identificado
claramente) y la existencia de un satélite, Titán, el 25 de marzo de ese año. Después de seguirlo durante
varios meses, para estar seguro de su período y órbita, dio a conocer la noticia en 1656.
Realizó importantes descubrimientos en el campo de la astronomíagracias a la invención de una
nueva lente ocular para el telescopio. Estudió la Nebulosa de Orión (conocida también como M42),
descubriendo que en su interior existían estrellas diminutas. En 1658diseñó un micrómetro para medir
pequeñas distancias angulares, con el cual pudo determinar el tamaño aparente de los planetas o la separación
de los satélites planetarios.
Continuó con la fabricación y pulido de lentes con focales cada vez mayores: después de obtener objetivos de
cinco, diez y veinte metros de focal (que probó en telescopios aéreos, sin tubo) terminó un telescopio con una
focal de 37 metros. Instalado sobre largos postes, sostenido por cuerdas para evitar el alabeo de la madera,
con él llegó a obtener una imagen muy clara de los anillos de Saturno, llegando a divisar la sombra que
arrojaban sobre el planeta. También estudió el cambio en la forma e iluminación de los anillos a medida que
el planeta giraba alrededor del Sol.
En honor suyo, la sonda de exploración de Titán —la mayor luna de Saturno— construida por la ESA lleva
su nombre (sonda Huygens).
Pierre-Simon Laplace
Modelo de Laplace:
Su definición nos dice que sea E un experimento cualquiera y fin S el conjunto finito de sus resultados
posibles tal que S = a1,..,ak, si suponemos que cada resultado es equiprobable (que ninguno tenga más
oportunidades que otro), entonces P(ai) = p. Si queremos que P sea una función de probabilidad tal que
entonces p = 1 / k. Sea A un subconjunto de S tal que A = a1,..,ar entonces.
Pierre de Fermat.
Pierre de Fermat
Jurista y destacado matemático
Nacimiento:
17 de agosto de 1601Beaumont-de-Lomagne, Francia
Fallecimiento:
12 de enero de 1665Castres, Francia
Pierre de Fermat (Beaumont-de-Lomagne, Francia, 17 de agosto de 1601 - Castres, Francia, 12 de
enero de 1665), fue un jurista y destacado matemático. Fue abogado en el Parlamento de Toulouse, en el
sur de Francia, y matemático clave para el desarrollo del cálculo moderno. También hizo notables
contribuciones a la geometría analítica
Fermat es mejor conocido por su Enigma, una abstracción del Teorema de Pitágoras, también conocido
como Último Teorema de Fermat, que torturó a los matemáticos durante aproximadamente 350 años, hasta
que fue resuelto en 1995. Junto con René Descartes, Fermat fue uno de los líderes matemáticos de la primera
mitad del siglo XVII. Independientemente de Descartes, descubrió el principio fundamental de la geometría
analítica. A través de su correspondencia con Blaise Pascal, fue co-fundador de la teoría de probabilidades.
Fermat nació el 17 de agosto de 1601 en Beaumont-de-Lomagne, una ciudad situada a
58 kilómetros al noroeste de Toulouse, Francia. La mansión del siglo XV donde nació es en la actualidad
un museo. La escuela más antigua y prestigiosa de Toulouse se llama Pierre de Fermat y en ella se imparten
clases de ingeniería y comercio. Está situada entre las diez mejores de Francia para clases preparatorias.
Fermat era un matemático que trabajaba la mayor parte del tiempo en soledad. Su único contacto con el resto
de la comunidad matemática fue gracias a Marin Mersenne. Cabe destacar también un breve intercambio de
cartas con Blaise Pascal. Los resultados de Fermat fueron conocidos por otros pensadores europeos gracias a
Mersenne, que los reenvió e hizo una amplia distribución.
Matemáticas:
Espiral de Fermat:
La espiral de Fermat, denominada así en honor de Pierre de Fermat y también conocida como espiral
parabólica, es una curva que responde a la siguiente ecuación:
r = θ1 / 2
Es un caso particular de la espiral de Arquímedes.