lunes, 7 de julio de 2008

Control de Inventarios

** Clasificación
** Inventarios de Seguridad
** Reductores de Costos
** Desacoplador de Operaciones
** Clasificación ABC
Inventario es cualquier tipo de almacenamiento de bienes y productos, representando en la mayoría de los casos, un segmento importante de la inversión.
Los Inventarios normalmente se clasifican como de:
1. Materias Primas.
2. Productos en Proceso.
3. Productos Terminados.
4. Suministros
Algunas empresas agregan un quinto: Insumos no productivos; estos no se requieren para la fabricación del producto, pero si se necesitan para venderlo, pudiera ser el material de empaque por ejemplo.
Las Técnicas de Control de Inventarios son las que permiten mantener las existencias de los bienes y productos en las cantidades y condiciones programadas.
Las tendencias de las modernas técnicas de producción, es reducir a cero estas existencias ya que estos representan una demanda de recursos económicos, un riesgo importante de deterioro en sus calidades. Debe sumarse por otra parte, un riesgo en las operaciones de ventas y finalmente, incide directamente en la productividad de la empresa.
Habrá casos y no pocos por cierto en que no es posible implantar un proceso de flujo en todas las operaciones. Esto es frecuente en plantas productoras que no entregan el producto al consumidor final, como pueden ser; maquiladoras o bien aquellas que entregan producto a empresas mayoristas que solicitan por lotes.
Puede darse el caso de empresas importadoras/ exportadoras en las que es virtualmente imposible, establecer un flujo continuo tanto de compras como de ventas.Otros aspectos que determinan la existencia de Inventarios son:
1. Imposibilidad de obtener insumos en el momento exacto en que estos son requeridos.
2. Es económicamente desfavorable, adquirir productos por debajo de cierto volumen.
3. Recuperación favorable de la inversión.
4. Reducción de riesgos. (Incertidumbre en el mercado).
Habrán otros criterios que justifican la existencia de un inventario; más de tipo financiero, corporativo o contractual que no entraremos ya que se escapan de estos objetivos. De lo que si debemos estar claros es de que una muy buena forma de mejorar la recuperación sobre la inversión, es incrementando la rotación de los inventarios; o dicho de otra manera; reducir el nivel de los mismos.
Inventarios de Seguridad
Es aquel cuyo objetivo es no quedarse sin existencias en el momento en que esta es requerida. Normalmente es un amortiguador cuando la demanda es muy fluctuante y no permite preverla con exactitud. Nótese que las amplitudes de las fluctuaciones, si deben estar cuantificadas con herramientas estadística y que en definitiva serán la base para calcular dichos niveles de seguridad.
De igual manera, repuestos o partes de maquinaria que en su defecto y tras una avería no prevista, pudiera detener el flujo productivo, Deben tomarse muy en cuenta los tiempos de entrega y el criterio esencial es: “Que y en Cuanto” puede parar una operación en particular y su incidencia en el flujo total.
Los Inventarios como Reductores en los Costos de Manejo
Normalmente se almacena entre las etapas del proceso y en teoría, disminuyen los costos de manejo, principalmente en plantas poco automatizadas.
Probablemente esta figura nace como una particularidad en procesos intermitentes, no así en procesos continuos. De darse, sería una muy buena área a cubrir por un equipo de reingeniería.
El Inventario como desacoplador de Operaciones
El desacoplo de operaciones es un intento por disminuir la dependencia de operaciones sucesivas, en otras palabras, que el abastecimiento de una operación sea independiente de otra. Su filosofía administrativa es “Autonomía Operativa y Programática en las Operaciones”.
Este es un Concepto que debe analizarse con mucho cuidado y debe ser muy bien justificado para cada caso en particular, ya que es contrario a los principios modernos de producción en flujo. Si bien exhibe algunas ventajas, personalmente creo que es, o puede llegar a ser el origen de las mayores catástrofes económicas.
Clasificación de los Inventarios
Los Inventarios se clasifican con el objetivo de hacer más eficiente tanto su manejo como su control y asegurar en cierta medida, la inversión involucrada en los mismos.Una práctica muy generalizada en la administración de inventarios es el de clasificarlos por su valor y en lo que se conoce como Principio de Pareto; el cual establece que en todo sistema de Inventarios, hay pocos artículos que representan la mayor parte de la inversión y una mayoría que representa una mínima parte.Esto en principio está bien, pero habrá que hacer observaciones importantes:No es admisible una clasificación siguiendo criterios contables y otra diferente bajo criterios operativos, o una pero sin tomar en cuenta los requerimientos de la otra. Esto evidentemente generará dispersión, dualidad en las operaciones de control y sobre todo reiteratividad, con un consecuente incremento en los costos. Si bien estos no están determinados o contabilizados, pero afecta la productividad general del proceso.
Las empresas modernas integran la totalidad de sus operaciones: Administración, Producción y Ventas, en un flujo continuo. Los criterios son los mismos, las variables a controlar, aun cuando estas se modifiquen en el proceso, son las mismas. Es el principio de la herencia frente al principio de la dualidad.
Para efectos de control, un buen punto de partida es el valor del artículo, sin embargo deben considerarse otros aspectos como el riesgo y no necesariamente el de sustracción. Ejemplo:
* Un producto perecedero lo controlaré mejor que otro no perecedero, aun cuando el último tenga mayor valor económico.
* Si en el Inventario hay artículos propensos a daños por condiciones ambientales, humedad por ejemplo, lo lógico será controlarlos mejor en la época de lluvia, etc.
* En General, debe potenciarse la exposición a riesgos de cada material en particular, por efecto de sustracción, perdida de sus calidades, errores de conteo en la recepción/entrega, error en los registros etc.
Debe tenerse siempre presente la naturaleza y característica de los productos. Como auxiliares está la disposición y acondicionamiento adecuado de los lugares de almacenamiento, y otros como anaqueles, cajones, áreas adecuadas para el movimiento, rotación y conteo de los mismos, definición de las unidades y más.
Clasificación ABC de los Inventarios
Probablemente el sistema más generalizado, según el cual, los artículos se clasifican en tres categorías:Clase “A” de alto volumen, el 80% de la inversión.Clase “B” moderado volumen, el 15% de la inversión.Clase “C” de bajo volumen, el 5% de la inversión.
De manera general el procedimiento matemático es el siguiente:
1. Se calcula el valor de cada producto: valor = consumo * precio unitario.
2. Determinar la Inversión total como la suma de todos los valores individuales.
3. Calcular el valor porcentual de cada artículo, siendo este igual a su valor calculado en el punto 1 dividido entre la inversión total calculada en el punto 2 y luego multiplica por cien.
4. Elaborar una tabla con todos los productos ordenados en forma descendente según el porcentaje calculado.
5. Se suma de arriba hacia abajo hasta el producto dónde dicha suma de ochenta. Todos los sumandos conforman la Clase A. a partir de aquí otra suma hasta el artículo dónde se refleje 15; ellos conforman el grupo clase B y los restantes serán clase C.
6. Establecer las excepciones según naturaleza y características de los productos, si es que los habrá, y definir los procedimientos de control de dichos grupos. En general, los artículos Clase A tendrán un Control más estricto que los clase B y estos más que los del grupo clase C. Aquí por lo general se define la frecuencia de conteo para cada grupo.
El Aspecto más Importante
Debe tenerse siempre presente que ningún sistema de control por muy bien diseñado que esté, va a funcionar, si el flujo de información no es continuo. Esto significa; Oportuno y Exacto.Hace algunas décadas esta responsabilidad era exclusivamente del el encargado de Bodega y en el mejor de los casos, con asistencia del auxiliar de contabilidad. Hoy es un trabajo de ingeniería. Las empresas modernas demandan información en tiempo real.

Planeacion y Control de Proyectos con CPM / PERT

Introducción
Así como los objetivos son el fundamento de la planificación, el proceso de control consta de tres elementos claramente definidos: Medir el desempeño real, compararlo contra un estándar y tomar las medidas adecuadas para corregir las desviaciones o bien los estándares incorrectos.
El proceso de Control presupone que existen estándares para la ejecución de las actividades, ya que estos fueron creados durante la planificación. Esto es; el control presupone planificación y los objetivos establecidos son por definición; tangibles, cuantificables y verificables.

Con la progresiva importancia que viene tomando la reingeniería en la tecnología de la producción y el desarrollo paralelo de los sistemas informáticos, los conceptos de planeación, control e inclusive de proyectos, vienen en continua transformación. Los Controles se desplazan hacia modelos concurrentes; que actúan en tiempo real, y se debilitan los modelos burocráticos.
Un Proyecto es un conjunto de actividades que se realizan una sola vez y que tienen definido el momento de inicio y de fin. La administración y control de Proyectos tienen como objetivo, que estas actividades se lleven a cabo en el tiempo, presupuesto y especificaciones establecidas.
En la actualidad, las técnicas de la administración de proyectos ha penetrado en casi todos los niveles de la industria moderna; La Construcción, producción cinematográfica, proyectos espaciales, producción automovilística, investigación de mercados etc. La razón primaria es la creciente necesidad de flexibilidad y repuestas rápidas frente a la presión que impone la producción moderna.
La Técnica que actualmente se emplea para evaluar un proyecto, se le conoce como el método de la Ruta Crítica, que en esencia es la síntesis de dos métodos: el Pert (Program evaluation and review technique), creado a finales de los años cincuenta por la armada de los estados unidos para el desarrollo del proyecto Polaris, con más de tres mil contratistas y cientos de miles de actividades a coordinar.; El proyecto concluyo dos años antes de lo inicialmente previsto.
El método CPM (Crítical Path Method), fue desarrollado casi simultáneamente por un centro de investigación de operaciones para la firma Dupont y Remington Rand, para el control y la optimización de los costos de operación, mediante la planeación adecuada de las actividades del proyecto.
El CPM es muy similar al PERT , la diferencia esencial es l método por el que se realizan estimaciones de tiempo para las diferentes actividades. Con CPM, los tiempos de las actividades son determinísticos. Con PERT, los tiempos de las actividades son estimaciones probabilísticas.
Fundamentos del Pert
Una Red Pert es una gráfica de flujos que representa la secuencia de las actividades que se requieren llevar a cabo para terminar un proyecto, así como el tiempo y los costos asociados a cada de las mismas.
La creación de una red Pert requiere de lo siguiente:
A. Identificar cada actividad a realizar. Estas producen Resultados.
B. Determinar el orden en el que se deben terminar estas actividades.
C. Hacer un diagrama de flujo de principio a fin de todas las actividades, representar estas con flechas y los resultados con círculos.
D. Determinar el tiempo estimado para el cual, cada una de las actividades quedará terminada.Para este cálculo se asume un tiempo optimista (To), un ideal o normal (Tm), y un tiempo pesimista (Tp).
Te= 1/6 * (To+4Tm+Tp)
E. Determinar las actividades en la ruta crítica. Estas son aquellas que retardan el proyecto global en la misma cantidad de tiempo en que estas se retardan.En CPM los cálculos se hacen con la premisa de que los tiempos de las diferentes actividades se conocen. De darse alguna demora en el proyecto, se hacen esfuerzos para que el proyecto retorne a lo programado, cambiando la asignación de recursos.
Ruta Crítica es la secuencia más larga tanto en actividades como en tiempo, requerida para la conclusión del proyecto, es de hecho el tiempo de duración del proyecto.
Como tiempo muerto, se define como la diferencia de tiempo entre el de la ruta crítica y el de todas la demás rutas. El CPM asigna la misma importancia al tiempo y al costo. El punto normal da el costo y el tiempo necesario cuando la actividad se ejecuta valga la redundancia; normalmente; sin incurrir en costos adicionales (horas extras de mano de obra, etc.). Para adelantar la actividad, el punto de quiebre proporciona el tiempo y el costo necesario cuando se realiza la actividad en forma intensiva, esto es; se acelera completamente sin reparar en costos, con el fin de reducir su tiempo de duración al máximo.Como una aproximación, se supone entonces que todos los trueques intermedios entre tiempo y costos son posibles y que se encuentran sobre el segmento de la línea que une a estos dos puntos.
El objetivo fundamental del CPM es determinar el trueque entre tiempo y costo que debe emplearse en cada actividad para cumplir con el tiempo de terminación del proyecto que se programo a un costo mínimo. La forma convencional de determinar la combinación optima entre el tiempo y el costo es aplicar técnicas de programación lineal.
Puede decirse que el CPM es muy apropiado cuando se pueden predecir con relativa exactitud los tiempos de las diferentes actividades, así como cuando es muy importante obtener la relación adecuada entre el tiempo y el costo del proyecto.
En la actualidad, se acostumbran emplear versiones modificadas de Pert, un hibrido entre el Pert original y el CPM. Una de las desventajas de Pert en proyectos relativamente pequeños, es el manejo de tres variables tiempo y su fundamento estadístico, que auque lo hace una herramienta muy poderosa, no así menos compleja.

Calidad Total

El Profesor Dr. Kaoru Ishikawa, Padre de la Calidad Total, nació en el Japón en el año 1915 y falleció en 1989. Se graduó en le Departamento de Ingeniería de la Universidad de Tokio obteniendo el doctorado en Ingeniería. Obtuvo el premio Deming y un reconocimiento de la Asociación Americana de la Calidad.Ishikawa hizo muchas aportaciones, entre las cuales se destacan:
• Creación del diagrama causa-efecto, o espina de pescado de Hishikawa, o en inglés "Fishbone Diagram"
• Demostró la importancia de las 7 herramientas de calidad.
El Pensamiento de Ishikawa puede resumirse como:
• La calidad empieza con la educación y termina con la educación.
• El primer paso a la calidad es conocer lo que el cliente quiere.
• El estado ideal de la calidad, es cuando la inspección no es necesaria.
• Hay que remover la raíz del problema, no los síntomas.
• El control de la calidad es responsabilidad de todos los trabajadores.
• No hay que confundir los medios con los objetivos.
• Primero poner la calidad y después poner las ganancias a largo plazo.
• El comercio es la entrada y salida de la calidad.
• Los ejecutivos no deben de tener envidia cuando un obrero da una opinión valiosa.
• Los problemas pueden ser resueltos con simples herramientas para el análisis.
• Información sin información de dispersión es información falsa.

ADMINISTRACION DE LA CALIDAD TOTAL

El Concepto de la Administración de la Calidad Total, también conocido por sus siglas en ingles – TQM -., es introducido en occidente por empresas japonesas de muy alta rentabilidad junto con otros conceptos relacionados con la administración de la producción tales como el mantenimiento total y el método Justo a Tiempo ( Just in Time - JIT -).El TQM parte de la premisa de que el cliente es quien impone y define la calidad, y destaca el compromiso de la administración para dirigir continuamente a toda la empresa, hacia la excelencia en todos los aspectos del producto o servicios que son importantes para el cliente.
W. Edwards Deming uno de los padres de la filosofía TQM, planteaba 14 puntos para implementar el sistema:
1. Generar constancia de propósito en mejorar los productos y los servicios.
2. Dirigir para promover el Cambio.
3. Construir Calidad dentro del producto. Esto significa; no depender de las inspecciones para determinar un problema.
4. Desarrollar relaciones a largo plazo en función del producto y no en el precio.
5. Instituir el liderazgo y mejorar la supervisión del mejoramiento
6. Mejora continuada del producto, la calidad y el servicio.
7. Instituir la capacitación y el entrenamiento en el trabajo.
8. Eliminar el Temor: Para mejorar la calidad y la productividad es necesario que la gente se sienta segura, que no tenga miedo de expresar ideas o de hacer preguntas.
9. Eliminar las barreras entre departamentos.
10. Apoyar, ayudar y mejorar.
11. Eliminar los slogans, las exhortaciones y las metas numéricas para la fuerza laboral y mejorar la productividad.
12. Hacer que todos en la empresa, trabajen en el proceso de transformación.
13. Eliminar los obstáculos que impiden a los empleados, sentirse orgullosos de su trabajo.
14. Instituir un programa de educación y auto superación.

Los principios de Deming implican necesariamente, adoptar la filosofía de la mejora continua, delegar autoridad en los empleados, implementar las técnicas de producción Justo a Tiempo (JIT) y los conceptos de Taguchi, establecer Puntos de Comparación y Conocimiento de las herramientas del TQM.El Principio de Mejora Continua establece que cada aspecto de la operación es susceptible de mejora y la meta final es la perfección. Esta meta aunque nunca se obtenga, debe buscarse con constancia y dirección.
Walter Shewhart planteo un modelo circular para representar el proceso de mejora continua.Este modelo conocido como PHRA – Planear, Hacer, Revisar, Actuar -, como todo proceso circular, es un proceso sin fin; cuando termina la última fase, se inicia la primera.De igual manera que el PHRA, existen otros procedimientos igualmente destacables, como lo pueden ser; el Kaisen de los japoneses y el modelo “cero defectos” conocido como “six sigma”, e implementado por Motorola, Honeywell y General Electric.
En cuanto a delegar autoridad en los empleados, un estudio reveló que este modelo tiene el doble de posibilidades de éxito, que aquellos que operan con directrices de arriba hacia abajo.El delegar autoridad implica diseñar redes de comunicación adecuadas, traslado de responsabilidades y formación de estructuras tales como círculos de calidad.El Punto de Comparación, está referido a establecer un estándar ya sea de productos, servicios, costos etc., que represente el mejor desempeño de las actividades propias. El objetivo es medir o comparar el desempeño obtenido contra el estándar.Las Técnicas Justo a Tiempo –JIT- están diseñadas paras producir y entregar bienes y servicios, cuando estos son requeridos.

Genichi Taguchi planteó tres conceptos para mejorar la calidad del producto y del proceso: Calidad Robusta, Función de Pérdida de Calidad y Calidad orientada a una Meta.
La Calidad Robusta es la que se mantiene constante aún en condiciones adversas de manufactura y ambientales. Esto significaría, eliminar los efectos de las condiciones adversas y no sus causas. La Función de Pérdida de Calidad (QLF siglas en ingles), es el modelo matemático con que se representan todos los costos relacionados con la mala calidad. Esta debe representar lo que sucede cuando el producto se aparta de lo que el cliente realmente desea.La Calidad orientada a una Meta es la contraparte del concepto tradicional en la cual, la calidad es aceptada si se encuentra dentro de los rangos de tolerancia.Todos dentro de la Empresa, deben tener conocimiento de Herramientas del TQM.

Algunas de estas herramientas son:
1. Hojas de InspecciónLos datos que se obtienen al medir una característica de calidad pueden recolectarse utilizando hojas de Inspección.Las Hojas de Inspección sirven para anotar los resultados a medida que se obtienen, y al mismo tiempo observar cual es la tendencia central y la dispersión de los mismos. No es necesario esperar a recoger todos los datos para disponer de información estadística.
2. Diagramas de dispersión:Los Diagramas de Dispersión o Gráficos de Correlación permiten estudiar la relación entre 2 variables. Dadas 2 variables “x” e “y”, se dice que existe una correlación entre ambas si cada vez que aumenta el valor de X aumenta proporcionalmente el valor de Y (Correlación positiva) o si cada vez que aumenta el valor de X disminuye en igual proporción el valor de Y (Correlación negativa).
3. Diagramas Causa y Efecto: Están destinas a reflejar todos los posibles problemas de calidad y los puntos de inspección.
4. Gráficas de Pareto: llamadas así, por su creador Wilfredo Pareto, economista del siglo XIX. Según Pareto, el 80% de los problemas de una empresa son el resultado de sólo el 20% de las causas.Los objetivos generales del diagrama de Pareto es el de analizar las causas, estudiar los resultados y planear una mejora continua. La Gráfica de Pareto es una herramienta sencilla pero poderosa al permitir identificar visualmente y en una sola inspección las pocas cosas importantes al que hay que prestar atención prioritaria
5. Diagramas de Flujo: es una representación gráfica de la secuencia de etapas, operaciones, movimientos, decisiones y otros eventos que ocurren en un proceso. Esta representación se efectúa a través de formas y símbolos gráficos.
6. Histogramas: Muestra la magnitud y la frecuencia en que ocurre una medición.
7. Control estadístico del Proceso: Este implica, monitorear estándares, tomar medidas y llevar a cabo acciones correctivas cuando el producto está en producción.

domingo, 22 de julio de 2007

Melquisedeck

LOS GRAVES PELIGROS DE LA REENCARNACION
Otro aspecto a considerar es de que si bién las leyes de la causalidad existen, estas distan en mucho de ser los instrumentos más adecuados para explicar el fenómeno de la Vida. Esta concepción hoy conocida como Aristotélica, ha dado paso a concepciones más modernas dónde se contemplan procesos de diferenciación, integración, retroalimentación, propulsión etc. nuestros modelos mentales conque estamos interpretando al Hombre, al Universo y a Dios mísmo, ya han tenido modificaciones sustanciales........
EL PODER DE LA TRANSFORMACION

Eliphas Levi, sacerdote y profesor de un seminario en París, publicó sus obras de magia y ocultismo por los años 1,860; por supuesto que después de haber sido expulsado de la iglesia dada sus concepciones poco ortodoxas.

La obra de Levi es muy abundante y por su formación intelectual, combina muy creativamente la magia...................
OTROS MUNDOS

El Doctor Stephen Hawking, al que personalmente considero el mejor astrofísico del momento, no tanto por el dominio de las ciencias en sí, cuanto a su creatividad o poco ortodoxia para interpretar y extrapolar sus resultados, asegura que el ser humano o coloniza otros mundos o se extingue............
EL RETORNO DE LOS DINOSAURIOS
René Descartes autor de la celebre frase “Pienso luego Existo”, nació en 1596 y educado desde los ocho años en el colegio Jesuita La Fleche. Fisiólogo, filósofo y matemático francés, autor de Meditaciones, Las Pasiones del Alma y otros. Es particularmente famoso ya que es el primero que ofrece una explicación estructurada del dualismo entre la mente y el cuerpo..........
EL ULTIMO ATLANTE


Durante la administración del presidente de los Estados Unidos Bill Clinton, su vice presidente Al Gore afirmó que en un lapso de cinco décadas, el planeta estará inmerso en una nueva era glacial y que la humanidad debe prepararse para este nuevo escenario.
Peter Schwartz, consultor de la CIA y ex ...........

Melquisedeck - Orígenes

EL HOMBRE DIGITAL


Muy Probablemente la mayoría de nosotros asociemos el término DIGITAL como sinónimo de tecnología o MODERNIDAD, y al hablar del HOMBRE DIGITAL lo asociemos con el hombre del futuro, sin embargo creo que me refiero al hombre en Vías de Extinción.
Los sistemas digitales son los que basan su operación en la aritmética binaria o de dos estados, por ejemplo; para un sistema digital solo existe sí o no, alto o bajo, cierto o falso; dos únicos valores discretos, no hay intermedios. Esta característica binaria de los más modernos ordenadores, realmente que fue creado así por el hombre porque la lógica del hombre mismo es digital, es de dos estados........



LA AGONÍA DE UN GEN


Federico Engels en su famosa obra “El Origen de la Familia, la Propiedad Privada y del Estado”, afirma que “la conciencia colectiva de la horda no puede tener en su origen un enemigo mayor que la conciencia colectiva de la familia”.
Aún cuando en la mayoría de sus principios no estoy de acuerdo con el materialismo dialéctico, si creo que el matrimonio fue la primera división del trabajo que se da entre el hombre y la mujer para la procreación de los hijos. De acuerdo a la medicina moderna, un bebe de hombre moderno nace con un 25% de su desarrollo cerebral contra un 60% de un bebe chimpancés, o sea que un chimpancés nace con más del 100% de desarrollo cerebral que un hombre moderno….

VISITAR EL ARTICULO


LOS HECHICEROS DEL CRO MAGNON


Se define como hombre de Cro-Magnon al antepasado arcaico del hombre moderno y se le identifica como el autor de las polémicas Pinturas Rupestres, entre las más famosas y abundantes están las de Altamira, España. Digo polémicas ya que inicialmente se les consideró por su elevado valor artístico como un fraude hecho por académicos. En la actualidad, por sus características y ubicación, se considera que no fueron hechas con propósitos artísticos sino que tenían un propósito mágico religioso, y que estas eran elaboradas por chamanes, brujos o hechiceros. Esta explosión de la mente mágica se da a partir de los años 40,000 a.C .......
EN EL REINO DEL NEANDERTHAL


El hombre del neanderthal desapareció hace aproximadamente unos 32,000 años y caminó sobre el planeta por unos 200,000, en esto no hay cifras exactas ni hechos totalmente definitivos. De acuerdo a la clasificación que ha hecho la ciencia moderna, aunque si pertenece a la linea homo sapiens no así a la homo sapiens sapiens que viene siendo la del hombre moderno. Algo así como primos hermanos. De acuerdo a los registros fósiles el neanderthal tendría una estatura de 1.65 mtrs. de complexión fuerte, muy bien adaptado al frío extremo propio de las eras glaciales y una capacidad cerebral de unos 1.500 cm. cúbicos, igual o mayor que la del hombre moderno. Se ha determinado que..........
LAS EDADES DEL MUNDO


En las crónicas del reino mexicano se dice: "Los antiguos sabian que antes que el presente cielo y tierra se formara, el hombre ya había sido creado y la vida se había manifestado cuatro veces". En Todas las culturas existe un concepto común en relación a las edades que terminaron por cambios violentos en la naturaleza o conflagraciones cósmicas. El número de edades varía de un pueblo a otro y de una tradición a otra. La diferencia depende del número de catástrofes que determinado pueblo retuvo en su memoria, o de la forma como registró el fin de una edad. En los anales de la antigua Etruria, había registros de siete edades que habían terminado. Los griegos tenían tradiciones semejantes. Hay un período llamado el año supremo por Aristóteles, al final del cual el sol, la luna y todos.......

martes, 13 de febrero de 2007

DOCUMENTO DE ESTUDIO

"Al parecer Einstein estaba doblemente equivocado cuando afirmó que "Dios no juega a los dados". Los estudios sobre la emisión de partículas desde agujeros negros permiten sospechar que Dios no solamente juega a los dados, sino que, a veces, los echa donde nadie puede verlos". Stephen W. Hawking
Esa confianza ilimitada en la ideología del Progreso comenzó a resquebrajarse con la aparición de las nuevas teorías que desde el campo de la física destruyeron los postulados básicos sobre los que se construyó la racionalidad moderna de la civilización occidental. Relatividad, mecánica cuántica, genética y biología molecular han dado lugar a una nueva representación del Universo y de la Naturaleza, alejada de los cánones de la visión derivada de la física newtoniana y sistematizada en la Teoría del Conocimiento del filósofo alemán Immanuel Kant.

Durante la segunda mitad del siglo XVIII la física newtoniana consiguió imponerse a lo largo y ancho del Viejo Continente, una vez solventadas las polémicas que enfrentaron a Newton con Descartes y Leibniz. La influencia del sistema newtoniano rebasó los límites estrictos de la Física, para convertirse en el fundamento de la Filosofía de la Ilustración.

La representación mecanicista de la Naturaleza se convirtió así en la Filosofía Natural dominante en la cultura occidental desde mediados del siglo XVIII hasta bien entrada la segunda mitad del siglo XIX, momento en el que la visión electromagnética de la Naturaleza disputó la primacía que hasta entonces había disfrutado el mecanicismo en la Física.

Fue a través del enorme influjo que sobre la cultura occidental ejerció la obra de Immanuel Kant como el sistema newtoniano adquirió un status de verdad ontológica, cimiento de todo el edificio del Saber clásico. En la Crítica de la Razón Pura, Kant trató de establecer los fundamentos y los límites de la razón humana, a través de la realización de una síntesis superadora de las dos grandes corrientes del pensamiento occidental de la segunda mitad del siglo XVIII: el racionalismo de la Ilustración y el empirismo inglés.
En la solución de las antinomias propuesta por Kant en la Crítica de la Razón Pura se condensa el marco conceptual de la nueva representación cosmológica que dominó la época clásica hasta la aparición de la Teoría General de la Relatividad en 1916. "El Mundo no tiene un principio en el tiempo ni límite extremo en el espacio". Kant sitúa la ley de la causalidad como ley fundamental de la Naturaleza, condición imprescindible de toda posibilidad de conocimiento: "Esta ley de la Naturaleza (...) es una ley del entendimiento en la que no está permitido, bajo ningún pretexto, apartarse o distraer ningún fenómeno, porque de otro modo se colocaría a este fenómeno fuera de toda experiencia posible..."

Lo que en Newton eran meros postulados en Kant adquirió el rango de absoluto. La extraordinaria influencia que tuvo la filosofía kantiana durante la primera mitad del siglo XIX contribuyó decisivamente a que físicos y matemáticos tomaran las leyes de la Física clásica por absolutamente necesarias. El concepto de Naturaleza defendido por Kant se constituyó así en la concepción dominante de la cultura occidental hasta la aparición de la Teoría de la Relatividad y la Mecánica Cuántica durante el primer tercio del presente siglo, instalándose en el centro de la episteme occidental hasta nuestros días.
A comienzos del siglo XIX el imperio de la Razón brillaba en todo su esplendor y, dentro del mismo, la representación determinista ocupaba una posición privilegiada. La aparición de la teoría evolucionista de Darwin, con la publicación de El origen de las especies en 1859, fue interpretada como la culminación de dicha representación, tal como afirmó el gran físico vienés Ludwig Boltzmann en su conferencia ante la Academia Imperial de la Ciencia, el 29 de mayo de 1886: "Si ustedes me preguntan por mi convicción más íntima, sobre si nuestra época se conocerá como el siglo del acero, o siglo de la electricidad o del vapor, les contestaré sin dudar que será llamado el siglo de la visión mecanicista de la naturaleza, el siglo de Darwin".

A raíz de la aparición de la teoría electromagnética de Maxwell, se fue abriendo camino una nueva representación de la Naturaleza: la representación electromagnética, especialmente desde la aparición de los trabajos de Hertz en 1887-88, en los que exponía sus experimentos, que demostraban la existencia de la radiación electromagnética. Los trabajos de H. A. Lorentz que culminaron con la aparición de la teoría electrodinámica de los cuerpos en movimiento, en 1892, no hicieron sino acrecentar el prestigio y el número de seguidores de la representación electromagnética de la Naturaleza en detrimento de la representación mecanicista.
Einstein

Para ello recurrió a una nueva definición del concepto de simultaneidad, según la cual "Cada cuerpo de referencia (sistema de coordenadas) tiene su tiempo especial; una localización temporal tiene sólo sentido cuando se indica el cuerpo de referencia al que remite". Desaparece así el tiempo absoluto característico de la Mecánica clásica: deja de ser necesario para la Física y se convierte en un elemento superfluo que estorba ahora a la propia teoría física. La ruptura con la física clásica aparece aquí evidente. Otro tanto ocurre con el concepto de espacio absoluto, el concepto de distancia espacial entre dos puntos de un cuerpo rígido se encuentra en función del sistema de referencia y sólo en este sentido puede ser empleado en Física. La reinterpretación de Einstein de las ecuaciones de transformación de Lorentz permitió establecer la transformación de las magnitudes espacio-temporales de un suceso al pasar de un sistema de referencia a otro. Einstein señalaba así su carácter de grupo, que no exigía la existencia de un sistema inercial privilegiado, diferente de los demás sistemas por su estado de reposo (espacio absoluto).
La aparición de la Teoría Especial de la Relatividad provocó la ruptura de la estructura armónica y totalizadora de la cosmovisión procedente de la física clásica, según la cual las leyes de la Mecánica daban razón de la totalidad del Universo, constituyéndose en Leyes Naturales de carácter universal. La desaparición de un sistema de referencia privilegiado, constituido sobre la base de la existencia de un espacio y tiempo absolutos, eliminaba la posibilidad de establecer, bajo las premisas de la antigua física clásica, una teoría física que unificase, mediante el establecimiento de unas Leyes Generales, el funcionamiento de la Naturaleza, situación que se agravaría con el desarrollo de la Mecánica Cuántica durante el primer tercio del siglo XX, y que en la actualidad todavía no ha podido ser resuelta a pesar de los esfuerzos teóricos desarrollados con el fin de dar con una teoría unificada, en la que se ensamblen los resultados alcanzados por la Relatividad y la teoría cuántica.
Einstein llegó pronto, en 1907, al convencimiento de que en el marco de la Teoría de la Relatividad Especial no había lugar para una teoría satisfactoria de la gravitación. En el proceso de generalización de la Relatividad Especial se percató enseguida de la igualdad existente entre masa inercial y masa pesante, de donde se deducía que la aceleración gravitatoria es independiente de la naturaleza del cuerpo que cae. Esta igualdad ya había sido registrada por la física clásica, pero no había sido interpretada. El reconocimiento por parte de Einstein de que "la misma cualidad" del cuerpo se manifiesta como inercia o como gravedad, le condujo a establecer el principio de equivalencia.
De esta forma, Einstein encontró en 1907 el camino por el que podía ser generalizada la Relatividad Especial a los sistemas de referencia de movimiento uniformemente acelerado, es decir, el medio de aplicar las ecuaciones relativistas a un campo gravitatorio homogéneo, llegando a la conclusión de que debía producirse una aceleración en la frecuencia de los relojes situados en un campo gravitacional intenso respecto de la frecuencia de los relojes situados en campos gravitacionales débiles. En el mismo artículo de 1907, Einstein llegó a la conclusión de que la acción de un campo gravitacional sobre la trayectoria de un rayo luminoso se manifiesta en su curvatura, algo que parecía entrar en abierta contradicción con el postulado de la Relatividad Especial, según el cual la velocidad de la luz en el vacío es constante.
En la Teoría de la Relatividad General, completada por Einstein en 1916, se plantea una nueva ley general de la gravitación acorde con la física relativista, que elimina la acción instantánea a distancia de la teoría de la gravedad de Newton, dando cuenta del avance del perihelio de Mercurio -algo que no podía explicar la ley de gravitación newtoniana- y de la curvatura de la trayectoria de los rayos luminosos bajo la acción de intensos campos gravitatorios. En el campo gravitatorio relativista relojes sincronizados marchan a distinta velocidad según su posición en el mismo. El reloj situado en la periferia del campo gravitatorio marchara constantemente más despacio, respecto de un sistema de referencia no afectado por el campo gravitatorio, que el reloj situado en el centro del campo gravitatorio. De tal manera que resulta imposible dar una definición exacta del tiempo dentro de un campo gravitatorio. Otro tanto ocurre a la hora de efectuar una definición de las coordenadas espaciales; éstas variaran en función de como se sitúen dentro del campo gravitatorio. Tales resultados llevaron a la conclusión a Einstein de "que los teoremas de la geometría euclideano pueden cumplirse exactamente sobre el disco rotatorio ni, en general, en un campo gravitacional... También el concepto de línea recta pierde con ello su significado".
Einstein se vio obligado a abandonar la geometría euclidea como marco en el que se desenvuelve el espacio-tiempo bajo la acción de un campo gravitatorio, rompiendo radicalmente con la representación espacial de la física clásica. Einstein recurrió a la utilización de coordenadas gaussianas como el método adecuado a medidas -distancias- no euclideas, características del continuo espacio-temporal bajo el efecto de un campo gravitatorio.
La Teoría de la Relatividad General planteaba una nueva configuración del Universo, a partir de la nueva geometría del continuo espaciotemporal de carácter no euclideo. El Universo infinito y estático característico de la cosmología clásica se ve obligado a ceder el paso a una nueva representación: el Universo finito y dinámico de la Relatividad General.
Si bien la teoría de la Relatividad eliminó algunos de los presupuestos epistemológicos básicos de la física clásica, como el espacio y el tiempo absolutos, sobre los que se asentaba la representación moderna del Universo, no puso en cuestión la representación determinista de la Naturaleza característica de la época Moderna. Dicha representación se asentaba en la validez universal del principio de causalidad clásico, cuyas premisas no quedaban afectadas por la revolución relativista. Lo que salvaguardaba la vigencia del criterio de realidad dominante en la física moderna, mediante el cual era posible aprehender la naturaleza de los procesos físicos sin interferencias del observador, postulado básico de la teoría del conocimiento desarrollada en la época Moderna.
Sin embargo, este pilar fundamental del Saber moderno pronto se vería afectado por una profunda crisis, como consecuencia del desarrollo de la Mecánica Cuántica. El inicio de esta fractura epistemológica se sitúa en la introducción del cuanto de acción por Max Planck en 1900, resultado de su investigación sobre el problema de la radiación del cuerpo negro.
Con ello introdujo el cuanto de energía como una realidad física, al subdividir el continuo de energía en elementos de tamaño finito, asignándoles un valor constante y proporcional a su frecuencia. Un paso que rompía radicalmente con la física del siglo XIX, al introducir la discontinuidad en la emisión y absorción de energía, hecho del que no se percató el propio Planck cuando estableció su teoría de la radiación del cuerpo negro, y que tardaría en reconocer cerca de diez años por la repugnancia epistemológica que ello le producía.
La fórmula de Planck por la que se establecía una igualdad entre la energía concebida como discontinua y la energía considerada continua, en función del carácter ondulatorio de la frecuencia, resultaba completamente extraña para los físicos de la época. Sólo Einstein comprendería el problema en toda su magnitud, al postular en 1905 la existencia de partículas de luz -fotones-, y con ello establecer el carácter corpuscular y ondulatorio de la luz. Una posición que gozó de la animadversión del resto de los físicos, entre ellos el propio Planck, que atrapados por la teoría ondulatoria de la luz, dominante desde la segunda mitad del siglo XIX, no podían concebir un comportamiento a primera vista tan contrario a los postulados de la física. Tan sólo en 1922, con la introducción del efecto Compton y el desarrollo de la Mecánica Cuántica a partir de 1926-27, la solución propuesta por Einstein se abrió camino.
Fue Ehrenfest el primero en señalar que la teoría de Planck constituía una ruptura con la teoría clásica, al limitar la energía de cada modo de vibración a múltiplos enteros del elemento de energía establecido por la realidad física del cuanto de acción, señalando que la cuestión fundamental de la teoría de Planck radicaba en el tratamiento probabilístico del campo. A conclusiones similares, pero por caminos distintos, llegó Einstein en las mismas fechas, al defender que durante la absorción y la emisión la energía de un resonador cambia discontinuamente en un múltiplo entero.
La teoría de Einstein sobre los calores específicos planteaba la imposibilidad de reducir la discontinuidad a la interacción entre materia y radiación, ni siquiera era posible reducirla a una teoría de los electrones mejorada. La teoría de Einstein era una teoría mecánico-estadística, independiente de consideraciones electromagnéticas, que exigía cuantizar la energía no sólo de los iones sino también de los átomos neutros. La aplicación de la mecánica clásica a cualquier proceso atómico era puesta en cuestión y con ella la totalidad de la teoría cinética. La discontinuidad aparecía así como un fenómeno de una gran generalidad y de profundas consecuencias físicas, que planteaba la reformulación sobre bases nuevas de la teoría cinética de la materia.
El siguiente gran paso no se produjo hasta 1913, cuando Niels Bohr aplicó la distribución cuántica de la energía para explicar el comportamiento de los electrones en el seno de la estructura atómica. Bohr resolvió así las dificultades del modelo atómico de Rutherford, al explicar por qué el átomo no emite radiación de forma continua y los electrones no se precipitan sobre el núcleo permaneciendo en órbitas estacionarias. Sin embargo, el modelo atómico de Bohr no estaba exento de dificultades teóricas, debidas a la introducción del cuanto de acción para explicar las transiciones energéticas del electrón. Ello implicaba que las transiciones entre los diferentes estados energéticos del átomo se producían mediante saltos cuánticos, algo que resultaba absolutamente incompatible con la teoría clásica que postulaba transiciones continuas de un estado de energía a otro. La dificultad se veía agravada por el recurso en la misma teoría a los principios de la mecánica y el electromagnetismo clásicos, para definir la carga y la masa del electrón y del núcleo. La utilización dentro del mismo modelo atómico de dos teorías, la clásica y la cuántica, incompatibles entre sí, generaba enormes problemas teóricos, que no fueron resueltos hasta la aparición de la Mecánica Cuántica en 1926-27.
La publicación de un artículo de Heisenberg en 1925 representó un salto cualitativo en la resolución de los problemas que aquejaban a la teoría cuántica del átomo de Bohr, al proponer la necesidad de abandonar el concepto clásico de órbita electrónica e introducir un nuevo formalismo matemático, que sería desarrollado inmediatamente por Max Born y Pascual Jordan, consistente en la aplicación de la matemática de matrices. Nacía así la mecánica matricial, sobre la que se fundaría la Mecánica Cuántica. Paralelamente, Dirac llegó a resultados similares en Cambridge.
Por las mismas fechas, 1924-1926, se desarrolló la Mecánica ondulatoria por De Broglie y Schrödinger. De Broglie generalizó la dualidad onda-corpúsculo de la luz, establecida por Einstein en 1905 para el caso del electrón, señalando que esta dualidad se encontraba íntimamente asociada a la existencia misma del cuanto de acción. Se trataba, en definitiva, de asociar al movimiento de todo corpúsculo la propagación de una onda, ligando las magnitudes características de la onda a las magnitudes dinámicas del corpúsculo, mediante relaciones en las que intervenía la constante de Planck.
Esta nueva mecánica ondulatoria fue desarrollada por Schrödinger en los primeros meses de 1926. En ella señaló que los estados estacionarios de los sistemas atómicos podían representarse por las soluciones propias de una ecuación de ondas, cuyo formalismo matemático encontraba fundamento en la solución de Hamilton respecto de la analogía formal existente entre los sistemas mecánicos y ópticos.
La situación no podía dejar de ser más confusa. Por una parte, el desarrollo de la nueva mecánica matricial ofrecía una teoría que resolvía matemáticamente los problemas que habían aquejado a la primera teoría cuántica, sobre la base de la consideración corpuscular del electrón, obviando su posible comportamiento ondulatorio. Por otra parte, la mecánica ondulatoria de Schrödinger se basaba en el comportamiento ondulatorio del electrón y obviaba el posible carácter corpuscular del electrón. Dos teorías que en principio parecían radicalmente contradictorias sin embargo alcanzaban resultados similares.
La situación se complicó aún más por la interpretación clásica que Schrödinger hizo de la ecuación de ondas, que perseguía eliminar los saltos cuánticos y la discontinuidad de los procesos atómicos, sobre la base de interpretar la función de ondas de su ecuación desde la perspectiva de la teoría clásica de la radiación electromagnética. En otras palabras, interpretó la teoría cuántica como una simple teoría clásica de ondas, en la que era negada categóricamente la existencia de niveles discretos de energía. La interpretación clásica de Schrödinger encontró una gran audiencia entre los físicos, pues eliminaba el contrasentido de los saltos cuánticos que amenazaba a todo el edificio de la física clásica. Dicha interpretación fue contestada por Niels Bohr, Werner Heisenberg y Max Born.
Fue Max Born quien resolvió la polémica y clarificó la situación, mediante su interpretación estadística de la ecuación de ondas de Schrödinger, al poner de manifiesto el carácter equivalente de la mecánica matricial y la mecánica ondulatoria; debido a que la ecuación de ondas, por su carácter complejo, exigía una interpretación probabilística de la localización en el espacio de la partícula asociada. Born sostenía que en los procesos individuales no es posible determinar con exactitud el estado de la partícula, sino que sólo puede establecerse la probabilidad del estado de la partícula, como consecuencia de la existencia del cuanto de acción. De esta manera, la función de la ecuación de ondas debía ser interpretada como la probabilidad de encontrar al electrón en el espacio de configuración determinado por el cuadrado de la función de ondas, no siendo posible una determinación exacta de la posición del electrón. En otras palabras, Born demostró que la ecuación de ondas de Schrödinger sólo podía ser interpretada de una forma probabilística
La interpretación probabilista de la mecánica cuántica realizada por Max Born, completada por la teoría de la transformación de Dirac y Jordan, constituyó un avance sustancial en la comprensión del significado de la nueva mecánica cuántica, al establecer el carácter físico de la probabilidad cuántica, hecho que constituía una profunda fractura con los fundamentos epistemológicos de la física clásica, por cuanto establece que tanto la localización espacial del electrón como los estados estacionarios del átomo sólo pueden ser determinados probabilísticamente.
La aparición en 1927 del artículo de Heisenberg en el que introducía las relaciones de incertidumbre como un principio físico fundamental, al postular que no es posible conocer simultáneamente la posición y el impulso de una partícula, no hizo sino profundizar dicha fractura epistemológica, al romper radicalmente con la antigua pretensión de la Física Moderna de alcanzar, mediante el conocimiento completo de todos los fenómenos físicos del Universo en un instante dado, la determinación absoluta hacia el pasado y hacia el futuro del Universo, en función de la validez universal del principio de causalidad estricto, origen y fundamento de la representación determinista de la Modernidad. El artículo de Heisenberg apuntaba directamente al corazón de la vieja gran aspiración de la Física Moderna, al sostener la imposibilidad física de conocer simultáneamente con exactitud determinista la posición y el impulso de cualquier clase de partícula elemental. Según las relaciones de incertidumbre, el producto de las incertidumbres de la localización y de la cantidad de movimiento no puede ser más pequeño que el cuanto de acción de Planck, constituyendo éste un límite físico infranqueable.
Para poder apreciar el papel que desempeñó el principio de incertidumbre en la renuncia del principio de causalidad estricto, conviene recordar que en la mecánica clásica son justamente los valores iniciales y los ritmos iniciales de cambio de todas las variables mecánicas -que definen el estado de un sistema dado- los que determinan los movimientos futuros del sistema en cuestión. Sin embargo, de acuerdo con el principio de incertidumbre, existe una limitación fundamental, derivada de las mismas leyes de la naturaleza en el nivel cuántico, consecuencia de la existencia del cuanto de acción, que hace imposible la predicción determinista del comportamiento de los procesos físicos cuánticos, debido a su naturaleza esencialmente probabilística.
La ruptura epistemológica con la física clásica se torna evidente si consideramos que ésta asocia a los sistemas físicos, cuya evolución desea describir, un cierto número de magnitudes o de variables dinámicas. Estas variables dinámicas poseen todas ellas, en cada instante, un valor determinado, a través de los cuales queda definido el estado dinámico del sistema en ese instante. Por otra parte, se admite, en la física clásica, que la evolución del sistema físico a lo largo del tiempo está totalmente determinada cuando se conoce su estado en un momento inicial dado.
El principio de incertidumbre se constituye en un principio físico fundamental que rige para el conjunto de los fenómenos, y que no es posible soslayar en los niveles de magnitudes en los que el cuanto de acción no es despreciable. El principio de incertidumbre se extiende, como principio físico fundamental, al conjunto de las relaciones físicas de las magnitudes cuánticas, y no sólo a las relaciones de incertidumbre de posición e impulso. Las consecuencias epistemológicas de las relaciones de incertidumbre alcanzaban de lleno al centro mismo de lo que había sido la Física desde los tiempos de Newton; es decir, cuestionan la capacidad de la Física para establecer leyes de la Naturaleza que determinen con absoluta precisión su funcionamiento como si de un mecanismo de relojería se tratará.
Ello provocó una fuerte polémica entre los defensores y detractores de la mecánica cuántica, centrada en el alcance de las consecuencias epistemológicas y la interpretación que debía realizarse de la nueva teoría cuántica. Polémica cuyos rescoldos todavía no se han apagado en la actualidad, si consideramos las posturas mantenidas por el neodeterminista Bunge o el realista clásico Popper, por citar sólo dos casos. La fractura era tan radical que tanto Planck como Einstein se negaron hasta su muerte a aceptar los resultados de la mecánica cuántica, al considerar que significaba el fin de la física como teoría comprensiva de la Naturaleza. En el caso de Einstein, éste mantuvo una prolongada y famosa polémica con Niels Bohr iniciada en la V Conferencia Solvay, celebrada en Bruselas en octubre de 1927, y continuada hasta su fallecimiento en 1955. De dicha polémica Einstein salió derrotado pero no vencido, y aunque terminó aceptando a su pesar la validez del formalismo de la mecánica cuántica, no cejó en su intento de demostrar que la interpretación de dicho formalismo no era correcta.
Einstein, en una carta dirigida a Max Born en 1926, explicitaba su repugnancia a las consecuencias de la mecánica cuántica: "la mecánica cuántica es algo muy serio. Pero una voz interior me dice que de todos modos no es ese el camino. La teoría dice mucho, pero en realidad no nos acerca gran cosa al secreto del Viejo. En todo caso estoy convencido de que El no juega a los dados." En 1957 De Broglie expresaba con claridad la validez de las consecuencias que Einstein rechazaba: "Mientras que en la física clásica era posible describir el curso de los sucesos naturales como una evolución conforme a la causalidad, dentro del marco del espacio y del tiempo (o espacio-tiempo relativista), presentando así modelos claros y precisos a la imaginación del físico; en cambio, en la actualidad la física cuántico impide cualquier representación de este tipo y, en rigor, la hace completamente imposible. Sólo permite teorías basadas en fórmulas puramente abstractas, desvirtuando la idea de una evolución causal de los fenómenos atómicos y corpusculares; únicamente suministra leyes de probabilidad considerando que estas leyes de probabilidad son de carácter primario y constituyen la esencia de la realidad cognoscible; y no permiten que sean explicadas como consecuencia de una evolución causal que se produjera a un nivel aún más profundo del mundo físico".
Si a la altura de 1875 las tesis darwinistas se habían abierto camino en la comunidad científica y extendido su influencia a los sectores ilustrados de la sociedad europea, vencidas las iniciales resistencias de los antidireccionalistas, a finales de siglo el darwinismo vio erosionado su prestigio entre los naturalistas, fruto del resurgimiento del neolamarckismo y de la ortogénesis.
En el cambio de siglo los oponentes a la selección natural estaban convencidos de la decadencia de la teoría darwinista como modelo explicativo del origen y evolución de los organismos vivos. Los principales argumentos en contra del darwinismo pueden resumirse en la discontinuidad del registro fósil, los cálculos de Kelvin sobre la edad de la Tierra, el problema de la existencia de estructuras no adaptativas, la aparente regularidad artificial de algunos mecanismos evolucionistas, las dificultades para explicar la variación y el argumento de la herencia mezclada. La selección natural se basaba en la afirmación de que los caracteres aparecían y se consolidaban en función de su valor en la lucha por la supervivencia. La existencia de caracteres no adaptativos constituía algo difícilmente explicable sobre la base del primado que la teoría darwinista atribuía a la adaptabilidad al medio en el proceso evolutivo. La excesiva regularidad artificial que parecía desprenderse de la selección natural fue otra objeción de peso debido a las dificultades para explicar la existencia de regularidades entre especies actuales muy alejadas entre sí o en el tiempo. Este problema fue uno de los argumentos claves para el desarrollo de la ortogénesis. Las variaciones entre individuos de la misma especie tampoco podían ser explicadas satisfactoriamente por el darwinismo, puesto que la combinación de selección natural y adaptabilidad al medio parecían apuntar a la uniformidad de los individuos de cada especie. El argumento de la herencia mezclada se constituyó en un ejemplo totalmente negativo para la selección natural, las mutaciones individuales no tenían ninguna significación en la evolución de la especie, en una época en la que la teoría mendeliana era todavía desconocida.
Finalmente, dos elementos ajenos a la propia teoría darwinista también contribuyeron a su declive. En primer lugar, la repugnancia que algunos naturalistas mantenían todavía respecto del carácter materialista que parecía apuntar la selección natural, el neolamarckismo y la ortogénesis ofrecían un espacio para la reintroducción de interpretaciones teístas, eliminando las desagradables consecuencias de una acción ciega de la Naturaleza. Por otra parte, otros naturalistas se mostraban profundamente en desacuerdo con los postulados del darwinismo social, que era derivado directamente de la selección natural, por el que se justificaba la superioridad racial, en un momento en el que las teorías raciales comenzaban a estructurarse dentro del núcleo matriz de determinados movimientos sociopolíticos o por los excesos en los que habían caído algunos partidarios de la antropología criminal y de las corrientes higienistas, a la hora de explicar los problemas de marginación social, sobre la base de la degeneración hereditaria.
El término neolamarckismo había surgido de la mano del norteamericano Alpheus Packard en 1885. Fue en Norteamérica donde esta corriente encontró se mayor difusión, sobre todo entre los paleontólogos. Las razones del resurgimiento de las tesis lamackianas pueden explicarse en dos grandes direcciones. De un lado, la mayor adecuación explicativa de las tendencias lineales observadas en el registro fósil. De otro, su capacidad para integrar la herencia de los caracteres adquiridos. La creencia de que el crecimiento individual (ortogenia) recapitula la historia evolucionista de la especie (filogenia) concordaba con la visión neolamarckiana de la variación y la herencia tal como fue enunciada por la ley biogenética de Haeckel y la ley de la aceleración del crecimiento de la escuela norteamericana. Para los neolamarckianos los caracteres adquiridos como consecuencia del desarrollo del individuo y de su capacidad de adaptabilidad al medio eran posibles por su incorporación en la edad adulta al plasma germinal, especie de célula madre en la que se depositaban los caracteres hereditarios. El neolamarckismo encontraba, por tanto, posibles puntos de contacto con la ortogénesis en su combate contra el darwinismo.
La ortogénesis compartía con el neolamarckismo la teoría de la recapitulación. La primera excluía la influencia del medio ambiente, mientras la segunda lo incorporaba a través del uso-herencia explicativo de los caracteres adquiridos. La ortogénesis significaba, según su principal difusor Theodor Eimer, una teoría basada en la evolución lineal no adaptativa. En otras palabras, la variación de las especies era debida a la existencia de una predisposición interna del organismo en sentido unidireccional, al postular que la naturaleza del organismo debía predisponerle a variar exclusivamente en una dirección determinada sin la intervención del medio ambiente. Para los ortogenistas cada una de las especies se regía por un patrón regular de desarrollo en el que la desaparición de una especie venía provocada por la senilidad de la misma. La argumentación de la ortogénesis respondía a un movimiento de más amplio alcance que engarzaba con la percepción de determinados círculos ilustrados europeos sobre la decadencia de la civilización occidental, que tras la hecatombe de la primera guerra mundial se abrió paso en amplios círculos de la opinión ilustrada. El éxito de La Decadencia de Occidente de Spengler es una clara manifestación de esta percepción.
Ampliar imagen
El nacimiento de la Genética y la teoría de la evolución.
El redescubrimiento en 1900 de las leyes de la mutación genética, establecidas por Mendel en 1865, cambió radicalmente la perspectiva sobre el problema de la evolución de las especies. Las cuestiones en torno a la variación y la herencia dejaron de ser contempladas desde la visión morfológica que había dominado a la teoría darwinista y al neolamarckismo. Por otra parte, se encontró una explicación consistente dentro de la genética mendeliana a la presencia de caracteres no adaptativos. Hugo de Vries fue el reintroductor de la genética mendeliana al postular su teoría de la mutación, que no hacía referencia a la selección al afirmar que eran los factores internos y no los externos los fundamentales en la evolución. Si bien es cierto que en los primeros pasos de la genética mendeliana, como en el caso de De Vries, no enlazaron con las teorías darwinistas, fue el desarrollo de la genética la que posibilitó la recuperación del darwinismo, eso sí con algunas importantes correcciones, a la hora de explicar el origen y evolución de los organismos vivos. Neolamarckismo y ortogénesis terminaron por desaparecer de la escena ante su imposibilidad de incorporar satisfactoriamente los resultados de la genética mendeliana. Apareció así la nueva síntesis moderna.
La actual teoría de la evolución cristalizó a partir de las obras de Theodosius Dobzhansky Genetics and the Origin of Species (1937 y 1941); Ernst Mayr Sistematics and the Origin of Species (1942) y George G. Simpson Tempo and Mode in Evolution (1944), que en el campo de la genética, la zoología y la paleontología sentaron las bases de la nueva síntesis moderna. La genética de poblaciones se ha constituido en una de las disciplinas centrales de la moderna teoría evolutiva al suministrar modelos y parámetros relevantes del cambio evolutivo, mediante la distribución de las frecuencias de los genes en las poblaciones. Los desarrollos más recientes de Clegg y Epperson (1985) y Lewontin (1985) han puesto de manifiesto la inmensa variabilidad genética de las poblaciones naturales, al menos para genes estructurales que codifican enzimas, incorporando modelos estocástico-poblacionales (modelos de conducta de las poblaciones que se rigen probabilísticamente con dirección al azar). El potencial evolutivo de una población está determinado por la variabilidad genética presente en la población. La evolución se presenta cuando por mutación aparece un alelo más eficaz que el alelo salvaje correspondiente.
El desarrollo de la teoría cuántica, vinculada a los problemas relacionados con la estructura del átomo, se realizó sobre la base de la existencia de dos componentes: el protón y el electrón. El modelo atómico de Rutherford, reformulado en 1913 por Bohr se basaba en este supuesto. De hecho el desarrollo de la mecánica cuántica se realizó sobre la base del comportamiento del electrón. Aunque ya en 1920 Rutherford postuló la existencia del neutrón, no fue hasta 1932 cuando este fue descubierto por James Chadwick en el Cavendish. Un año antes, en 1931 Paul Dirac había postulado la existencia de una nueva partícula elemental: el positrón, con la misma masa que el electrón pero con carga eléctrica positiva, cuya existencia fue descubierta en la cámara de niebla por Carl Anderson algunos meses después. La estructura del átomo comenzaba a complejizarse. De hecho, en 1929 Wolfgang Pauli predijo la existencia de una nueva partícula elemental: el neutrino, con el fin de explicar el equilibrio energético de la desintegración beta del núcleo atómico. En 1935, Hideki Yukawa postuló la existencia de los mesones, que en 1947 se comprobó que eran de dos tipos: el pión y el muón.
La física de las partículas elementales comenzaba su andadura de la mano de la mecánica cuántica. Teoría fundamental de la estructura de la materia. Para ello fue preciso el desarrollo de la física de altas energías, debido a la necesidad de romper las fuerzas de ligadura del núcleo atómico. En su primera etapa, el análisis de la estructura atómica se había realizado sobre la base de la radiación alfa. Para avanzar en el conocimiento de la estructura del núcleo atómico era necesario conseguir partículas alfa más energéticas, en 1932 John Cockcroft y Ernest Walton lograron, mediante un multiplicador voltaico, la desintegración artificial de átomos de litio en dos partículas alfa. Un paso más en esta dirección Van de Graaff diseñó un generador electrostático para acelerar partículas que alcanzaba los 80 kV, en 1935 alcanzaban los cinco millones de voltios (5 MV).
El salto más significativo se produjo de la mano de Ernest Orlando Lawrence, que sobre la base de los trabajos de Rolf Wideröe, desarrolló el ciclotrón. Se fundamentaba en una estructura circular en la que las partículas cargadas entraban en un campo eléctrico alterno logrando su aceleración por la diferencia de potencial. Lawrence aplicó al modelo de Wideröe la acción de campos magnéticos, que lograban un incremento sustancial de la aceleración de las partículas. En 1932 Lawrence lograba poner en funcionamiento el primer ciclotrón con la colaboración de M. Stanley Livingston en Berkeley. Paralelamente, en la Universidad de Columbia (Nueva York) Harold Urey y su equipo descubrían un isótopo del hidrógeno: el deuterio, cuyo poder desintegrador era diez veces más potente que los protones. En 1936 con un ciclotrón más potente se logró medir el momento magnético del neutrón produciéndose además el primer elemento artificial: el tecnecio. El ciclotrón posibilitó la creación de isótopos radiactivos que pronto revelaron importantes aplicaciones, entre otras en el campo de la medicina para el diagnóstico y tratamiento del cáncer.
En 1938, Otto Hahn junto con su colaborador Fritz Strassmann observo con sorpresa la producción de bario como consecuencia del bombardeo con neutrones del uranio. Se encontraban frente a la primera reacción de fisión nuclear conocida. El 6 de enero de 1939 publicaban sorprendidos estos resultados. Lisa Meitner, antigua colaboradora de Hahn y exiliada en Estocolmo por su origen judío, fue la primera en interpretar correctamente el alcance del descubrimiento de Hahn junto con su sobrino Otto R. Frisch. La aplicación de la fórmula einsteiniana E=mc2 a la fisión del uranio revelaba dicho proceso como una fuente inagotable de energía. Las bases de la bomba atómica estaban puestas. La proximidad de la Segunda Guerra Mundial aceleró el proceso. Frisch comunicó los cálculos a Niels Bohr en Copenhague antes de que partiera a Estados Unidos, para dar unas conferencias sobre teoría cuántica en Princeton. El 16 de enero de 1939, Bohr y su colaborador Léon Rosenfeld se encontraron en Nueva York con John Wheeler y Enrico Fermi, a los que comunicaron el hallazgo de Hahn y los resultados de Meitner y Frisch. Inmediatamente los físicos en Norteamérica comenzaron a explorar el nuevo horizonte de la posibilidad de provocar reacciones en cadena. Para ello era necesario que en la fisión del uranio se produjeran más de un neutrón. Joliot en París calculó un valor medio de 3,5 neutrones, mientras en Columbia Fermi contabilizaba dos neutrones. La reacción en cadena era pues una realidad. Algo que había predicho en 1934 Leo Szilard a raíz del descubrimiento de la radiactividad artificial por Irène Curie y Frédéric Joliot.
Szilard consciente del peligro que entrañaba la bomba atómica en manos de la Alemania nazi se dirigió a Albert Einstein para que alertara al presidente de los estados Unidos, Franklint Delano Roosevelt. Es la famosa carta de Einstein del 2 de agosto de 1939: "Trabajos recientes de E. Fermi y L. Szilard,... me hacen esperar que el elemento uranio pueda convertirse en una nueva e importante fuente de energía en el futuro inmediato... En el curso de los cuatro últimos meses se ha hecho probable -... - que pueda ser posible establecer una reacción nuclear en cadena en una gran masa de uranio... Este nuevo fenómeno conduciría también a la construcción de bombas y es concebible -...- que de esta manera se puedan construir bombas de un nuevo tipo extremadamente poderosas... En vista de esta situación, acaso pueda Vd. considerar aconsejable que exista algún contacto permanente entre la administración y el grupo de físicos que trabajan en reacciones en cadena en Estados Unidos".
En octubre de 1939 era creado un comité presidencial presidido por Lyman J. Briggs, era el primer paso del llamado proyecto Manhattan que desembocaría en la fabricación de las primeras bombas atómicas. A principios de 1941, en plena guerra mundial, Ernest Lawrence se involucraba directamente en el proyecto. Desde que tuvo conocimiento de los trabajos de Hahn y Meitner y Frisch había embarcado a su equipo de Berkeley a investigar el proceso de fisión del uranio en los ciclotrones. En la primavera de 1940, Edwin McMillan y Philip Abelson descubrieron un nuevo elemento producido por la fisión del uranio en el ciclotrón: el neptunio. En febrero de 1941, Glenn T. Seaborg identificaba un nuevo elemento de la desintegración del neptunio: el plutonio, Halban y Kowarski en Cambridge postularon que este nuevo elemento podía ser fisionable con neutrones lentos. De esta forma, se optimizaba la utilización del uranio, puesto que sólo el escasísimo isótopo del uranio U-235 era capaz de generar reacciones en cadena, mientras que el más frecuente U-238 no lo era, a cambio este podría producir plutonio. Nacía así la posibilidad de la bomba de plutonio, que fue la utilizada en Nagasaki.
El siguiente paso lo dieron Otto Frisch y Rudolf Peierls en Gran Bretaña al calcular aproximadamente la masa crítica de uranio necesaria para desencadenar una reacción en cadena autosostenida. Los cálculos les llevaron a considerar esa masa crítica en torno al medio kilo, cuya reacción en cadena liberaría una energía equivalente a miles de toneladas de TNT. La bomba atómica era ya una posibilidad real. En noviembre de 1942 se inauguraba en Nuevo México el laboratorio de Los Alamos, bajo la dirección de Robert Oppenheimer, donde se realizaron las pruebas de la primera bomba atómica. Al amanecer del 16 de julio de 1945 estallaba en el desierto de Nuevo México la primera bomba atómica. El 6 de agosto una bomba atómica de uranio, con una potencia de 20.000 toneladas de TNT y unos 4.500 kilos de peso, arrasaba Hiroshima. El 9 de agosto de 1945 una bomba de plutonio arrasaba Nagasaki. Nacía así la era nuclear.




Del átomo al microchip.
Una de las derivaciones del proyecto Manhattan fue el impulso que recibió la electrónica, sentando las bases prácticas para el desarrollo de los computadores. La participación de John von Neumann en el proyecto Manhattan fue a este respecto decisiva. Las necesidades de cálculo requeridas para el desarrollo del proyecto nuclear exigían nuevas innovaciones. Von Neumann conoció por Hermann Goldstine el proyecto de la Moore School of Electronics Engineering de la Universidad de Pennsylvania, embarcada en la construcción del computador electrónico ENIAC (Electronic Numerical Integrator And Computer) para los Ballistic Research Laboratories, que contaba con 18.000 válvulas. Von Neumann se incorporó al proyecto en el ámbito de la organización lógica. Al finalizar la guerra, Von Neumann se dedicó al desarrollo de máquinas más potentes, que culminaron con la construcción en Princeton de la JOHNNIAC que entró en funcionamiento en 1952. Era el comienzo de la era de los computadores. El desarrollo de la física del estado sólido en el campo de los semiconductores contribuyó decisivamente a ello. En 1947 el descubrimiento del transistor en los Laboratorios Bell por Brattain, Bardeen y Shockey permitió sustituir las viejas y aparatosas válvulas de vacío por los transistores, que redujeron las dimensiones e incrementaron las velocidades de cálculo de los computadores electrónicos.
Sin embargo, los antecedentes de los computadores se remontan más atrás en el tiempo. En 1930, Vannevar Bush desarrollo el analizador diferencial, base sobre la que se desarrollaron los computadores analógicos. El siguiente paso se debe a Howard Aiken, creador del Automatic Sequence Controlled Calculator, más conocido como Harvard Mark I, iniciado en 1939 y que entró en funcionamiento en 1944, que podía controlar toda la secuencia de cálculos, lectura de datos e instrucciones en un punto e impresionar sus resultados. Von Neumann y Goldstine avanzaron en el diseño lógico de los computadores, resolviendo los problemas asociados al almacenamiento de datos y programas en una memoria en común, proponiendo el sistema numérico binario, que se aplicó por primera vez en 1949 en el EDSAC de la Universidad de Cambridge, base sobre la que se asientan los computadores desde entonces. Antes habían contribuido a la construcción ENIAC, primer computador electrónico digital, abriendo paso a la segunda generación de computadores. Las ideas de von Neumann encontraron su plasmación más acabada en Princeton, el primer prototipo fue el IAS, o máquina de von Neumann, a partir de la que se construyeron la AVIDAC, la ORDVAC, la ORACLE, la SILLIAC, la ILLIAC, la MANIAC o la JOHNNIAC antes mencionada.
Sobre el modelo estándar de la IAS, la IBM introdujó el sistema de tarjetas perforadas que permitió desarrollar la IBM-701 en 1953. Un año más tarde aparecía la IBM-650 y en 1959 la IBM-1401. En esta época Jack Kilby de TI y Robert Noyce de Fairchild Semiconductor crearon el primer circuito integrado, conjunto de transistores y resistencias interconectados, nacía así el chip, que permitiría dar un salto de gigante en la construcción de computadoras y, en general, en la microelectrónica. A principios de los años sesenta un chip incorporaba unos cuantos transistores microminiaturizados, a finales del decenio de los ochenta un microchip incorpora millones de transistores. En abril de 1964 IBM desarrollaba el System/360, primera familia de computadores compatibles, y en 1981 creaba la primera computadora personal. En abril de 1976 Steve Wozniak y Steve Jobs fundaban la Apple Computer, que fabricaría la gama de computadores personales competidora con el sistema IBM, los Macintosh. En 1987, IBM lanzó al mercado el IBM PS/2, que ha reemplazado su anterior línea de computadoras personales.
El avance en el campo de los ordenadores ha exigido combinar diferentes disciplinas desde la lógica formal a la física cuántica, pasando por la física del estado sólido, la cibernética, la teoría de la información, la ciencia de sistemas y la teoría de sistemas. Dos ramas han sido precisas para ello: el hadware, o soporte material de los computadores, esto es la estructura de las máquinas, donde la física del estado sólido ha sido transcendental al permitir desarrollar los transistores y, posteriormente, los microchips, mediante los avances registrados en el campo de la semiconductividad y más recientemente de la superconductividad, en los que la física cuántica es fundamental, logrando máquinas infinitamente más potentes y reducidas; y el software, o ciencia de los lenguajes de programación, donde las matemáticas, la lógica formal, la teoría de la información y la teoría de sistemas han desempeñado un papel esencial, dando lugar a nuevas aplicaciones fruto del avance de la programación computacional, en este campo el concepto de algoritmo es imprescindible.
Los trabajos del británico Alan M. Turing en 1936, Emil Post en 1943 y Markov en 1947 han sido básicos en el desarrollo de la teoría algorítmica, cuyos antecedentes inmediatos se sitúan en el cálculo lambda de Alonzo Church y las funciones recursivas generales de Gödel. La máquina universal de Turing, es un sistema matemático diseñado para manejar el problema general del cálculo no un objeto, de manera que para un argumento dado el valor de la función puede encontrarse utilizando sólo reglas preasignadas, aplicadas por la computadora y construidas previamente en su estructura. Su importancia reside en el hecho de que una máquina universal de Turing puede en principio ejecutar todo tipo de cálculo que sea realizable, Churc señaló en 1936 que es el mecanismo más general posible para la solución de un problema resoluble. Shannon ha reducido el número de estados internos de la máquina de Turing a sólo dos simplificando considerablemente el diseño de una máquina de Turing.
Von Neumann ha extendido el principio de la máquina universal de Turing a los procesos biológicos regidos por los mecanismos de replicación del DNA. Lo que ha llevado a los defensores de la Inteligencia artificial fuerte a pensar en la posibilidad de construir máquinas inteligentes, abriendo un nuevo campo en el que se entrelazan la física y química cuánticas con la bioquímica del cerebro y la cibernética. En la actualidad los computadores, tanto en serie como en paralelo, se basan en los principios de la máquina universal de Turing. Sin embargo, el propio Turing ha reconocido posteriormente que no puede existir un algoritmo general capaz de decidir sobre todas las cuestiones matemáticas. A ello ha contribuido decisivamente el teorema de incompletud de Gödel, al demostrar que el programa de David Hilbert era irrealizable, en tanto en cuanto cualquiera de los sistemas de matemáticas formales de axiomas y reglas de inferencia debe contener algunos enunciados que no son demostrables ni indemostrables con los medios permitidos dentro del sistema.
Del microcosmos al macrocosmos.
Habíamos dejado el problema de la estructura de la materia con el descubrimiento de los mesones, formados por piones y muones en 1947. Para avanzar en el complejo mundo cuántico se hacían necesarios aceleradores más potentes que los ciclotrones de Lawrence. En 1945 MacMillan en Estados Unidos y Veksler en la Unión Soviética propusieron el principio de estabilidad de fase para construir aceleradores más potentes, surgieron así el sincrociclotrón y el sincrotón, además se construyeron aceleradores lineales merced a los trabajos de Álvarez, Hansen y Panfosky capaces de alcanzar los 900 MeV como el de Stanford. En 1943 Oliphant proponía un nuevo tipo de acelerador en forma de anillo, en el que la aceleración se lograría por la variación simultánea del campo magnético y la frecuencia de la tensión aplicada, principio que fue desarrollado en 1952 por Courant, Livingston, Snyder y Cristofilos que desembocó en la construcción del sincrotón en Ginebra del CERN en 1959, que alcanzaba los 28,5 GeV. Entre tanto, la radiación cósmica vino en ayuda de los físicos. De esta forma, fueron identificados los piones y los muones mediante la interpretación de las trazas dejadas en placas fotográficas por los rayos cósmicos.
Microcosmos y macrocosmos aparecían ligados entre sí. La estructura de la materia y del Universo debían de mantener una fuerte interrelación. De alguna manera la relatividad y la mecánica cuántica deberían estar relacionadas. De hecho, esa ligadura ya se había puesto de manifiesto con el principio de exclusión de Pauli y la ecuación de Dirac, desarrollada en 1928, que le llevó a postular la existencia del positrón, dando entrada al concepto de antimateria, esto es, la existencia de pares de partículas iguales con carga distinta. En 1950 en Berkeley se identificaba un nuevo pión, el pión neutro. A partir de entonces han ido apareciendo nuevas partículas, como los mesones K y los hyperiones. El modelo propuesto por Yukawa para explicar el comportamiento de la interacción fuerte, responsable de la estabilidad del núcleo atómico, fue sustituida en los años setenta por la cromodinámica cuántica (QDC) debido a la creciente complejidad del mundo atómico con la aparición de los quarks. Las partículas que interaccionan fuertemente se denominan hadrones, que a su vez están integrados por dos familias de partículas los mesones y los bariones.
Las características y propiedades de los bariones han dado lugar al establecimiento de la ley de conservación del número bariónico, por la que el número de bariones y antibariones se conserva y explica la estabilidad del protón, que es un miembro de la familia de los bariones, y con ella de la estabilidad de la materia. Además de los hadrones, existen los leptones, constituidos por el electrón, el neutrino y los muones. A su vez los hadrones están formados por quarks, éstos fueron propuestos en 1964 por Murray Gell-Mann y George Zweig. Los mesones están constituidos por un par quark-antiquark, mientras los bariones tienen tres quarks. Según la cromodinámica cuántica, los quarks nunca pueden aparecer bajo la forma de partículas libres. En los años setenta ha sido posible determinar las cargas de los quarks en el interior del protón, gracias al SLAC (Stanford Linear Accelerator Center). Junto con los quarks, en el interior de los hadrones se encuentran los gluones, responsables de la unión de los nucleones, observados en 1979 por el acelerador PETRA de Hamburgo. Como consecuencia del descubrimiento en la radiación cósmica de una nueva partícula neutra, llamada hyperión lambda, y del mesón K a ella asociado se descubrió un nuevo número cuántico, al que se denominó extrañeza, que aparece asociado a un nuevo quark, el quark s. La desintegración de las partículas con extrañeza responden, como la desintegración beta, a la interacción débil. La combinación de los quarks d, u y s explican la existencia de los hyperiones epsilon, descubiertos a principios de los años cincuenta, los hyperiones forman la familia de las partículas delta.
En 1964 se descubrió una nueva partícula con extrañeza, la omega- predicha con anterioridad por la teoría de Gell-mann y Ne´eman, con ella podían interpretarse satisfactoriamente los sistemas de hadrones constituidos por los quarks d, u y s. Sin embargo, en la segunda mitad de los años sesenta los físicos predijeron una nueva interacción, la interacción de la corriente neutra que fue observada en el CERN en 1973, asociada a un nuevo quark: el quark c, predicho en 1970 por Sheldon Glashow. En 1974 se descubrió en el laboratorio Brookhaven por Sam Ting y en el SLAC por Burton Richter una nueva partícula, la psi, que Richard Feynman y Harald Fritzsch atribuyeron a un nuevo número cuántico al que denominaron encanto. En 1979 se encontraron evidencias de la existencia del número cuántico encanto en los bariones, que se añadían así a los mesones encantados. En 1970 Gell-Mann y Fritzsch postularon la existencia de un nuevo número cuántico al que llamaron color, para explicar por qué el estado de la partícula delta++ es antisimétrico como exige el principio de exclusión de Pauli. De esta forma, los quarks podían ser rojos, verdes y azules -los colores son exclusivamente denominaciones-, con el número cuántico color se desarrolló la cromodinámica cuántica (CDQ), que ha venido ha completar a la electrodinámica cuántica (QED) que se ocupa de la interacción electromagnética a escala cuántica, para explicar la estructura y comportamiento de la materia.
La física de las partículas elementales ha permitido avanzar en el conocimiento de la estructura del Universo. De esta forma, relatividad general y física cuántica se revelan como dos teorías fundamentales para comprender el macrocosmos. A razón de ello estriba en el hecho de que las partículas elementales requieren altísimas energías para su producción, capaces de romper las fuerzas de ligadura del núcleo atómico. Estos procesos sólo se producen en el interior de las estrellas o en la explosión de las mismas en sus variadas formas, en función de su masa: supernovas y gigantes rojas, que dan lugar a estrellas de neutrones, agujeros negros, enanas blancas y enanas negras; o en las primeras etapas del big bang. El big bang se considera la singularidad inicial de la que parte nuestro actual Universo. La teoría del Big bang forma parte del modelo estándar surgido de la relatividad general, que además se ajusta con bastante precisión a los resultados de la física cuántica en el ámbito de las partículas elementales. En 1948, George Gamow predijo que debería existir un rastro en el Universo de la explosión inicial o big bang, dicho rastro fue observado en 1965 por Penzias y Wilson, era la radiación de fondo de cuerpo negro, radiación térmica de 2,7 grados kelvin residuo del big bang.
En los instantes posteriores al big bang el Universo estaba extremadamente caliente y condensado, en aquellos momentos las leyes de la física no operaban y las partículas elementales de la materia no eran viables. Steven Weinberg ha descrito lo que sucedió en el lapso de tiempo comprendido entre una diezmilésima de segundo después del big bang y los tres primeros minutos del Universo actual, lapso en el que el Universo inicio su expansión y enfriamiento haciendo posible las fuerzas de ligadura que regulan las leyes de la física. Una hora y cuarto después del big bang la temperatura ha descendido a algo menos de una décima parte, unos 300 millones de grados kelvin, en ese momento las partículas elementales se encuentran ligadas en núcleos de helio o en protones libres, además de la existencia de electrones. Alrededor de 700.000 años después del big bang la expansión y el enfriamiento del Universo permitirán la formación de núcleos y átomos estables, el desacoplamiento de la materia y la radiación permitirá el inicio del proceso de formación de galaxias y estrellas.
El modelo actual del Universo introduce la flecha del tiempo, que en el ámbito de la física había sido introducida por Ludwig Boltzmann con la segunda ley de la termodinámica en el último tercio del siglo XIX. La segunda ley de la termodinámica afirma que la entropía de un sistema aislado aumenta con el tiempo. En términos generales, la entropía de un sistema es una medida de su desorden manifiesto.
La segunda ley de la termodinámica introduce la asimetría temporal, o flecha del tiempo. El Universo es por definición un sistema aislado, además el modelo actual del Universo dinámico y en expansión se ajusta a la existencia de una flecha del tiempo, cuya dirección discurriría desde el big bang hacia el futuro. El problema se plantea a la hora de hacer compatible la entropía del Universo, regida por la segunda ley de la termodinámica, y las ecuaciones de la relatividad general y de la mecánica cuántica que son simétricas en el tiempo especialmente las primeras, en tanto en cuanto la reducción del paquete de ondas dentro del formalismo mecánico-cuántico es asimétrica temporalmente. En la actualidad se piensa que la solución a este problema vendrá de la mano de la construcción una teoría de la gravitación cuántica, una teoría cuántica de la estructura del espacio-tiempo, para lo que el estudio de los agujeros negros se revela como el camino más factible, los trabajos de Roger Penrose y Stephen Hawking van en esta dirección.
Pensar desde la complejidad.
La revolución científica del siglo XX ha dado lugar a una nueva representación del Universo y de la Naturaleza. Del Universo infinito y estático característico de la época moderna, surgido de la revolución newtoniana, se ha pasado al universo dinámico y en expansión de las revoluciones relativista y cuántica. De la Naturaleza regida por leyes deterministas, derivadas del carácter universal de la Ley natural de la causalidad se ha pasado a una concepción de la Naturaleza articulada sobre la base de los procesos complejos, en los que el carácter probabilístico de los fenómenos cuánticos afecta no sólo al ámbito de la física del microcosmos y del macrocosmos sino también a los propios procesos biológicos, como consecuencia de la trascendencia de los procesos bioquímicos en los organismos vivos.
La representación determinista característica de la racionalidad de la civilización occidental en la época moderna, que se articulaba en tres grandes postulados, espacio y tiempo absolutos y principio de causalidad estricto, tiene que ser reemplazada por una nueva racionalidad. Una nueva racionalidad que desde el paradigma de la complejidad sea capaz de integrar de forma coherente y consistente azar y necesidad.