lunes, 26 de mayo de 2008

Algo interesante para leer

LA MATEMÁTICA EN EL SIGLO XX
Juan Manuel PÉREZ DELGADO


EL SIGLO XX


Desde comienzo de nuestro siglo, la Ciencia se manifiesta cada vez más claramente como el elemento determinante del porvenir de la Humanidad, y es particularmente espectacular desde la segunda Guerra Mundial. La vida moderna está impregnada de Matemáticas por todos sus poros, siendo el número de “obreros“ ocupados en descubrir las matemáticas enorme en comparación con el resto de las anteriores épocas. Pasó el tiempo en los que se afirmaba: “En la ciencia, hay gigantes y pigmeos, pero éstos se suben a los hombros de aquellos y ven más lejos“. Hoy en día, no sólo es imposible conocer a fondo toda la Ciencia, ni una rama de ella, hoy existen los llamados “especialistas“, los cuales sólo pueden pretender alcanzar, mediante una visión
general de la ciencia que cultivan un conocimiento profundo de alguna de sus partes.


La Teoría de Números

La Teoría de Números estudia los enteros, sus sistemas de numeración, los números primos, los racionales, los irracionales algebraicos o los transcendentes, los lazos que los unen, ..., los diferentes cuerpos e ideales, sus estructuras. Esta teoría se apoya fuertemente en la teoría de funciones, y en ella encontró la geometría un nuevo instrumento de trabajo. Destacan los autores: H. Minkowski, Axel Thue, Siegel, y F. K. Roth. Con respecto a los números primos, el teorema propuesto por Legendre, en el sentido de que p(x) es el número de primos que no superan a x, es asintóticamente equivalente a x/ln(x), fue demostrado, por Hadamard y por De la Vallée–Poussin, de forma independiente, aunque después se dio por Landau, una demostración más corta.
Muchas cuestiones sobre los números primos siguen sin ser demostradas, están ... abiertas. Otros matemáticos que podemos reseñar son: B. Rosser, Hardy, Wright, Sierpinski, Brauer, Ricci, Linnik, Tchudakov, Shapiro, Van der Corput, Varga, y sobre todo Vinogradov. Por otro lado están los matemáticos ya consagrados como David Hilbert y Elie Cartan. Medidas de los conjuntos, definiciones de integral.
La medida de los conjuntos de puntos en los espacios de una, dos, tres, etc. ... dimensiones ha pasado por tres fases sucesivas. En primer lugar, la medida dada por Jordan, la cual es independiente de la forma y estructura del conjunto que se tiene que medir. Pero resultó que algunos conjuntos tan simples como los racionales del intervalo (0, 1), como el conjunto de los
irracionales de dicho intervalo, serian “medibles“ con dicha definición, y para salvar dicho inconveniente, Ëmile Borel, introdujo otra definición de medida, la medida que se suele denominar, B. Al mismo tiempo, otro gran genio, inventó otra medida, Henri Lebesgue, la medida L, que resultó tener las mismas propiedades que las anteriores, pero resultaba independiente además de la forma de construcción del conjunto a medir y es invariante por traslación.
Pero, dada una definición de medida, tenemos al unísono, una definición de Integral, así se habla en estos temas de la integral de Jordan, de la integral de Riemann, de Borel, y sobre todo de la Integral de Lebesgue. Que aunque desde un punto de vista práctico todas sean equivalentes, desde el punto de vista teórico, la de Lebesgue presenta gran interés.

El álgebra y la topología de principios de siglo

El Algebra “Moderna, no tiene apenas más que el nombre en común con lo que durante siglos ha constituido el álgebra por excelencia, la teoría de las ecuaciones. La nueva Algebra, se basa en la teoría de grupos, la idea más universal sin duda de las Matemáticas actuales, en los conceptos de cuerpo y anillo así como los conceptos de espacios vectoriales y más general de módulos sobre un anillo.
La topología, de cuyos resultados sólo quedará un 5% de lo que era, se basa en las nuevas nociones de “cohomología“, “homotopía“, y “homología“, con autores como: Pontrianguine, Lefschetz, Alexander Hopf, Eckmann, Eilenberg, Cartan, Rham, Whitney, Hurewicz, Brouwer, Milnor, Lie... y la serie de nombres se puede ampliar tanto como se quiera, que han conseguido una revolución algebraica–topológica en todas las ramas de las Matemáticas. Mas, aún quedan problemas abiertos de solución difícil en el Algebra actual, entre los que destaca LA DETERMINACION DE TODOS LOS GRUPOS SIMPLES FINITOS.


LAS MATEMATICAS DE HOY EN DIA


Un matemático actual está en su “espacio de trabajo“. Con lo dicho quiero decir que las matemáticas actuales se han convertido en un campo de cultivo excesivamente minifundista. La época de los Euler, Gauss, Poincaré, ... ha desaparecido en combate. Cada cual sólo puede pretender alcanzar, mediante una visión general de la ciencia que cultiva, un conocimiento profundo de una de sus partes. Cada una de las partes, son cada vez más y más para el especialista de esa parte. En la actualidad es imposible estar al día incluso de los resultados más notables, y eso hace imposible emitir un juicio de valor de los logros matemáticos. Los campos de trabajo que actualmente se han creado y gozan pues del cariño de lo nuevo son los que vamos a exponer, mas eso no significa que no se sigan las investigaciones en los campos tradicionales.


La teoría de las catástrofes


Creada en los sesenta por René Thom, no apareció hasta el año 1972. La idea era crear un modelo válido para cualquier proceso evolutivo.
En la ciencia se cree en la llamada estabilidad estructural, es decir, en la creencia de que en el universo existe un tipo de orden que conlleva el hecho de que si un experimento se puede repetir y si la repetición se logra en más o menos las mismas condiciones, obtendremos aproximadamente los mismos resultados. Esto traducido a las matemáticas significa: dada una familia de curvas dependientes de parámetros, pequeñas variaciones en los parámetros,
que se suponen continuos, nos proporcionan curvas que siguen siendo de la familia.
Los parámetros juegan, en la teoría de las catástrofes, un papel fundamental. Si el número de parámetros no pasa de cuatro, sólo aparecen siete tipos de catástrofes, es decir, discontinuidades cualitativamente distintas en el seno de la estabilidad estructural. Así, un sistema complejo se puede reducir a unos pocos parámetros de control y, por tanto, los complejos sistemas diferenciales se pueden evitar.
Entre los frutos de la teoría (ver Arnold (1983)), que están en ciencias como la biología, física, ciencias sociales..., por ejemplo, se encuentra el estudio de la estabilidades de las estructuras elásticas, por Thompson_Hunt (1973). El estudio de un perro bajo tensión, y el comportamiento humano en ciertas situaciones, sugiere aplicar esta teoría en los procesos de los trastornos
psicológicos. Ver la obra de Zeeman (1976). Se ha intentado, por Bazin y Saunder, aplicar la teoría en la obtención de un sistema fiable en la dinámica presa-depredador, problema que se había tratado antes bajo la teoría de las ecuaciones diferenciales. También se aplica, (Maynard Smith, 1974), a la Ecología, con resultados que al menos ha sido útiles.


La teoría de los fractales

Como sabemos, en 1967, Benoît Mandelbrot, se preocupó de medir la “irregularidad“ de un fenómeno continuo. Con lo que pretendía unificar muchas ideas dispersas anteriores, como la curva de Peano (1890), el conjunto de Cantor (1884), la curva de Koch (1904), el movimiento browniano y el concepto de dimensión generalizado (que fue puesto de manifiesto por Cantor
y Dedekind y formalizado por Hausdorff (1919). Con esto aparecieron los conceptos de objeto fractal y dimensión fractal.
La teoría pone, pues, sobre el tapete, la adecuación del concepto topológico de dimensión, (que es un número entero positivo), para cuantificar el grado de irregularidad de una curva o superficie, y/o el grado de fragmentación de un conjunto. Para ello se dio una nueva definición de dimensión, que no es necesariamente entera. El primero en darla fue Hausdorff y fue elaborada por Besicovitch, en 1934.
Estas ideas de Mandelbrot han permitido realizar estudios de hidrología, turbulencias, ráfagas, anatomía, botánica, así como meterse de lleno en el estudio interior del pulmón. Representar muy adecuadamente los errores de transmisión, estudios sobre las galaxias, etc.


Teoría de los conjuntos Fuzzy


En 1965, L. A. Zadeh, construye su teoría sobre los conjuntos fuzzy, basada en la idea de quebrar la lógica binaria en la relación de pertenencia de un elemento a un conjunto; es decir, los elementos pertenecen a un conjunto con su propio grado de pertenencia, grado que depende del elemento y del conjunto y que por tanto, varía de un elemento a otro dentro de un mismo
conjunto y, para un mismo elemento, de un conjunto a otro. Con esta idea, aparentemente trivial, se puede matematizar el concepto de vaguedad, concepto aparentemente contrapuesto a la rigidez lógica de las matemáticas clásicas. Con ello se destruye principios tan “indiscutibles“ como el principio del tercio excluido o el principio de no contradicción. Así podemos matematizar
ciencias empíricas como la economía, sociología, lingüística, ética, estética, medicina, psicología, etc.. Citemos algunos éxitos de esta teoría, por ejemplo, la introducción del concepto de conjunto borroso y medida borrosa de sucesos vagos, por parte de Sugeno, 1974, cuya aplicación en las preferencias electorales ha tenido un espectacular éxito.
El grave inconveniente de la teoría de los conjuntos borrosos aparece a la hora de dar una definición correcta de “relación o de grafo borroso“, conceptos introducidos por el propio Zadeh, Rosenfeld, Yeh, y Bang, en la primera mitad de la década de los setenta.


La teoría de grafos y el problema de los cuatro colores


Como sabemos, la teoría de grafos tiene su remoto origen en la topología, en particular en el problema de los siete puentes de Königsberg (Euler, 1736) y el problema relativo a los elementos constitutivos de un poliedro y sus relaciones (Euler, 1750). Como teoría independiente de los problemas topológicos se irá configurando a partir de la segunda mitad del siglo XIX, por N. L. Biggs. Su potencial teórico se pondría de manifiesto en el XX, por el impulso de grandes autores como Ramsey, con su célebre teorema, y el problema de los cuatro colores. En 1976, tuvo lugar un hecho curioso en el mundo de las matemáticas: La “demostración“ de Appel y Haken, del problema de los cuatro colores. Este problema era muy antiguo, lo había conjeturado Guthrie en 1852 y propuesto a la London Mathematical Society por A. Cayley, en 1878. Su enunciado era:
Todo mapa plano se puede colorear sin usar más de cuatro colores distintos, siempre que entendamos con ello que nunca dos países con frontera común pueden tener el mismo color. (El mapa se convierte automáticamente en un grafo).
La primera reducción a mapas (grafos) normales, y la afirmación de que jamás más de tres regiones se encontrarán en un mismo vértice, ni jamás una región se hallará rodeada totalmente por otra se debe a Kempe (1879), dando una demostración basada en la existencia de configuraciones inevitables reducibles; sin embargo, su demostración resultó ser falsa, y de
nuevo el problema quedaba abierto. Appel y Haken se basaron en las ideas de Kempe, pero ampliaron el conjunto de configuraciones inevitables de cuatro a millares, algunas de ellas eran tan complicadas que su reductibilidad sólo podía establecerse utilizando un ordenador de alta
velocidad. Así se planteó la cuestión del concepto de “demostración matemática por ordenador“. La teoría de Frank Plumpton Ramsey, (1903- 1930), tiene su punto de partida en la generalización del principio del palomar.


Teoría de la recursividad


Con la aparición del teorema de incompletitud de Gödel, aparecen en el ambiente matemático las “funciones recursivas“, que en 1936, conducen a Turing al concepto de algoritmo, y con él, al concepto de “función computable“, y a la teoría de la computabilidad teórica o de la recursión.
Hacia los sesenta se multiplican los trabajos teóricos iniciados por Kleene, introduciéndose el grado de complejidad por (Simpson, 1977) y la teoría de la complejidad, que plantea, no si una función es computable o no, sino si tal computación es realizable en la práctica, para ello conduce a la necesidad de introducir nuevos parámetros, como el tiempo de computación, el volumen de
memoria de almacenamiento, el número de bucles de la computación, etc.
Entre los resultados más notables están los teoremas de Blum (1967), Young (1973), sobre el aumento de velocidad en la computación. Se ha planteado en la actualidad, el problema que consiste en identificar las funciones f(x) tales que son computables en un tiempo acotado por un polinomio en x. Problema que se complica, si se introducen las máquinas no deterministas, es decir, aquellas que tienen cierto grado de libertad para elegir una instrucción en cada
configuración. Así, aparece el problema de Rabin (1979), que consiste en saber si toda función computable en una máquina no determinista en un tiempo polinómico es computable en una máquina determinista.


Indecibilidad y incompletitud


Otra cuestión ligada con el teorema de incompletitud de Gödel, que establece la existencia de una sentencia del lenguaje formal aritmético de primer orden, verdadera, pero no-demostrable, en la teoría de Peano de primer orden, la constituye la naturaleza de dicha sentencia. En 1977, Paris y Harrington, establecen un teorema, íntimamente relacionado con el de Ramsey, verdadero
para los enteros, pero no demostrable en la teoría de Peano de primer orden.
El teorema de Ramsey establece:
En el caso infinito.- Para todo k, r, dada una r-coloración de los k-conjuntos de N, existe un subconjunto infinito de N monocromático. En el caso finito.- Para todo k, r, t existe un n tal que, dada una r-coloración de los k-conjuntos de n, existe un t-conjunto monocromático. (En este teorema aparece el concepto de r-coloración de los k-conjuntos de un conjunto S, que es en realidad una función j cuyo dominio es la familia de los subconjuntos de S con k-elementos (k-conjuntos) y cuya imagen es r).
El teorema de Paris y Harrington es una proposición modificada del teorema de Ramsey, dice:
Para todo k, r existe un n tal que, dada una r-coloración de los k-conjuntos de A = {k+1,....,r}, existe un conjunto grande B Ì A, monocromático.
Este teorema es verdadero, pero no demostrable en la teoría aritmética. (Spencer y Smorynski) (1984).
También en relación con el teorema de Gödel, se plantean los problemas de indecibilidad. Uno de estos problemas es relativo a la veracidad de las sentencias del cálculo de predicados: no existe algoritmo matemático alguno que nos diga si una sentencia concreta del cálculo de predicados de primer orden es válida o no; este resultado lo demostró Church en 1936.
En teoría de grupos, había surgido el llamado problema de las palabras; este problema hacía referencia a los grupos finitamente presentados por un conjunto S de generadores. Dada una palabra, un elemento del grupo, ¿existe un algoritmo que nos diga si esta palabra es el elemento neutro del grupo?. La respuesta negativa la dieron Novikov, en 1955 y Boone, en 1957. En 1970 Y. Matiyasevich, estableció la indecibilidad del problema diez de Hilbert: no existe ningún algoritmo que nos diga si una ecuación diofántica dada tiene o no tiene solución. Este trabajo es, pues, la culminación de los trabajos de M. Davis, J. Robinson y H. Putnam.


Teoría de los modelos


En las primeras décadas del XX, el logicismo y el formalismo tienden a reducir el lenguaje matemático a meros complejos de símbolos, cuyo significado viene impuesto por los axiomas y las reglas deductivas del sistema formal. Este vaciado de la intuición conlleva, (Von Neumann, 1925; Skolem, 1934) a la necesidad de recurrir a estructuras matemáticas en las que el lenguaje formal adquiere un cierto sentido. Gracias a este sentido interpretado es posible dar
una definición correcta de “sentencia válida“ (Tarski, 1935), y estos conceptos conducen a la “categoricidad“ de los modelos (Veblen, 1904), una teoría formal es categórica si sólo existe un modelo esencialmente diferente. - Conduce a la completitud e incompletitud, en el sentido de saber si todas las sentencias válidas en una familia de modelos admiten una axiomatización-, y
conducen a la “compacidad“ -un conjunto de sentencias es consistente si, y sólo si, lo es cualquiera de sus partes finitas-. Estos conceptos condujeron a los grandes teoremas de la teoría de los modelos: teoremas de completitud, de compacidad (Gödel), de Löwenheim-Skolem-Tarski, de incompletitud de la aritmética (Gödel) 1931.
La teoría de los modelos se convertía en una herramienta de las matemáticas y de la lógica, proporcionando tres vías matemáticamente fructíferas: ¿qué podemos decir de una teoría a través del conocimiento de la familia de sus modelos y de sus propiedades?, ¿qué podemos decir de los modelos, analizando la teoría?, ¿cómo podemos construir modelos nuevos de ciertas teorías dadas y cómo podemos relacionar las teorías que admiten una cierta clase de modelos?.
Aparecen las técnicas de construcción por “ultraproductos“, (Los, 1965) y ligada con ellas la construcción de los modelos no-standard y el análisis nostandard (Robinson, 1961); se vincularían con la teoría de los modelos los resultados de “álgebra universal“. Para poner de manifiesto la importancia que ha adquirido la teoría de modelos en nuestros días basta indicar la importancia que están adquiriendo los conceptos de model-companion de Robinson (1973)
y sus resultados en la teoría de los cuerpos reales tan vinculados a la geometría algebraica.


La teoría de conjuntos


Otra teoría que ha aportado resultados de “fundamentación de las matemáticas“ totalmente inesperados ha sido la teoría de conjuntos y su axiomatización. Consistencia relativa del axioma de elección (AC) y de la hipótesis general del continuo (HGC). En 1963, Cohen, estableció la
independencia de estos dos postulados con respecto a los demás axiomas de Zermelo-Fraenkel (ZF). Con esta aportación se pone de manifiesto la posibilidad de considerar una u otra teoría axiomática de conjuntos según las características del problema a resolver.
El trabajo de Gödel en 1938 sobre el “axioma de constructibilidad“; este axioma implica AC y HGC. Mas el axioma de Martin, permite dar respuesta a los mismos problemas que resuelve el axioma de constructibilidad, pero las respuestas son las opuestas. ¿?.
Otro axioma que aparece es el “axioma de determinación“ (Mycielsky- Steinhaus). Es incompatible con el axioma de elección, pero permite demostrar algunos problemas de análisis matemático. Etc.

Documento original

El quehacer matemático un recorrido por la historia. Parte II
http://personales.ya.com/casanchi/did/histoparte1.pdf
[en linea]