Blogia
INSTITUTO DE LOS ANDES

(11) TECNOLOGIA

CONCEPTOS SOBRE TECNOLOGÍA

 

Ingeniería Hotelera – La Tecnología

Ing. Jaime Ariansen Céspedes - Instituto de los Andes

Conceptos Básicos Sobre Tecnología.

01. La tecnología es la disciplina que estudia el “cómo” y el “por qué” de los procesos de transformación de las materias primas en productos y de las ideas mediante el trabajo en servicios.

02. La palabra tecnología deriva de las palabras griegas:

TECHNOS (técnica) y LOGOS (ciencia)

03. La tecnología estudia los procesos de obtención de los productos terminados (bienes o servicios) en condiciones técnico-económicas concretas, tomando en cuenta la utilidad económica de los procesos respectivos.

04. La tecnología es la ciencia aplicada a los procesos de la gestión empresarial.

05. La tecnología es el conjunto de conocimientos exclusivos de un oficio o un arte.

Principios y Valores de la Tecnología. Reflexología.

01. La actual extraordinaria producción y desarrollo de la ciencia y la tecnología, va a modificar rápida y  sustancialmente todos los sistemas de vida en el mundo.

02. Las empresas peruanas tienen que enfrentar a la revolución tecnológica de la primera década de este siglo XXI, mediante un cambio cualitativo en la forma de pensar y actuar.

03. Los violentos y continuos cambios en todos los niveles de la tecnológica adquieren más velocidad cada día y vuelven obsoletos procesos aún en vías de experimentación; por este motivo la versatilidad en las empresas es una gran cualidad.

04. Todas las tareas en una empresa deben tener un porcentaje adecuado de tecnología y trabajo.

05. Se deben utilizar los medios y procedimientos adecuados para la fabricación de cada uno de los productos de la empresa.

06. La tecnología debe ser de vanguardia, ya que sin ella la empresa se convierte en obsoleta y perdería una pieza clave en la búsqueda de la calidad total.

07. La tecnología no debe escaparse de las manos de la empresa.

08. Los hoteles deben estar preparados a cambios constantes que se hagan en el sistema de producción.

09. Los hoteles se deben adecuar a la tecnología moderna que facilitará y hará más eficaz la producción.

10. Invertir en tecnología es una de las inversiones más seguras para alcanzar el éxito.

11. Todo proceso debe ser predeterminado mediante documentos en los que intervienen conocimientos tecnológicos.

12. La tecnología es una macrovariable fácil de resolver por parte de la empresa, si tiene recursos económicos que le permitan acceder a ella.

13. Toda empresa deberá alcanzar el nivel tecnológico adecuado para y ser competitiva. El no hacerlo implicará el estancamiento de la misma.

14. Tecnología es sinónima de capacitación. Cada vez más las empresas necesitan de personal capacitado  para competir.

15. La competitividad es sinónima de desarrollo tecnológico.

16. Con el uso de la microcomputadora se ha revolucionado el concepto del trabajo. Las computadoras hacen la labor más fácil y rápida.

17. A mayor tecnología, mayor productividad. Las empresas en la actualidad deberán invertir mucho en tecnología.

18. El cambio tecnológico actual demanda un mayor desembolso de dinero, se debe contar con tecnología de punta para productos competitivos y de excelente calidad.

19. La reingeniería es un proceso complejo necesario para lograr la excelencia en los productos. La tecnología es una fase y no un proceso.

20. El éxito tecnológico por la innovación es cada día más breve, por la copia y el espionaje empresarial. Esta situación plantea retos de inversión, seguridad y flexibilidad.

21. Dominar la tecnología necesaria para cada empresa, debe ser uno de los principales retos de los gerentes.

22. Un adecuado flujo de información, es uno de los principales elementos del concepto tecnología.

INGENIERIA HOTELERA - TECNOLOGIA 01

La Magia de la Tecnología

Ing. Jaime Atiansen Céspedes - Instituto de los Andes

“Llegará una época en que la investigación diligente y prolongada sacará a la luz, cosas que hoy están ocultas. La vida de una sola persona, aunque estuviera toda ella dedicada al cielo, sería insuficiente para investigar una materia tan vasta....Por lo tanto este conocimiento sólo se podrá desarrollar a lo largo de sucesivas edades.

En el futuro nuestros descendientes se asombrarán de que ignoráramos cosas que para ellos son tan claras. Muchos son los descubrimientos reservados para tiempos futuros cuando se haya borrado el recuerdo de nosotros. Nuestro Universo sería una cosa muy limitada si no ofreciera a cada generación algo que investigar....La naturaleza no revela sus misterios una vez para siempre.”

Séneca, Cuestiones Naturales - Libro VII – Siglo I

La historia de la tecnología, es la epopeya del hombre y la evolución de la vida, es la historia del extraordinario esfuerzo de miles de personalidades que han hecho posible que el hombre abandone las cavernas y se remonte a los cielos con el fin de conquistarlos, es la historia de la Ingeniería.

Un día, Prometeo, hijo del Titán Lapeto y de la Ninfa Oceánica Climenea, recibió de los Dioses el encargo de administrar los honores y prebendas que deberían recibir los hombres después del triunfo sobre los Titanes, pero los Dioses prohibieron expresamente que los hombres usaran el fuego.

Entonces Prometeo roba el fuego en el Olimpo y lo trajo a los hombres en forma de rayo. Zeus decidió infligir a los hombres diversos males, acudió a Hefaistos pidiéndole que creara una mujer muy hermosa, a la que llamó Pandora, es decir la muy agraciada, que llevaría un cántaro en el cual estarían encerrados todos los males imaginables y todas las enfermedades con el propósito de que se expandieran por toda la Tierra.

Prometeo, halla su propio injusto castigo por su abnegado amor hacia el genero humano. Zeus lo encadenó a una roca haciendo que una águila le devorara el hígado, día por día, y durante la noche le volvería a crecer para seguir el castigo al día siguiente.

Finalmente Hercúleas con el consentimiento de Zeus, que deseaba acrecentar la fama de su hijo, mata al águila y puso en libertad a Prometeo.

Así termina esta historia de la rebelión de Prometeo y  los hombres por su deseo de tener a su disposición el fuego y la posibilidad de la creación de tecnología, que en esa celestial época estaba reservada sólo a  los Dioses.

El fuego y la rueda son dos símbolos del desarrollo tecnológico y podemos hacer una larga lista donde incluyamos la agricultura, la metalurgia, la cerámica, la palanca, el péndulo, el plano inclinado, la polea, la escritura, el vapor, el telar, el caldero, la imprenta, el tren, el automóvil, el avión, las vacunas, los antibióticos, los analgésicos, el cinematógrafo, los rayos x, los rayos láser, el teléfono, la televisión, la energía nuclear, las computadoras.

¿Quieres otros mil ejemplos del genio del hombre y la evolución de la ciencia y la tecnología?

Actualmente estamos viviendo una época muy especial, por que por primera vez en la historia, podemos vislumbrar con precisión matemática un futuro tecnológico fantástico.

Sabemos con certeza lo que pasará en el campo de la ciencia dentro de 5 ó 10 años, que es el período de un ciclo completo de investigación, desarrollo y comercialización de una novedad, y este singular hecho nos permite proyectarnos hacia el fantástico futuro, reflexionar sobre él y prepararnos para ser competitivos en estas diferentes condiciones.

 

EL JABÓN DE ACEITUNA

por Antonio García Fuentes - El Libre Pensador

Entre tantas cosas sorprendentes como los arqueólogos han encontrado y descifrado; se encuentra la del invento del jabón, o jabón común; puesto que a lo largo de los milenios, el jabón que hoy empleamos, en nada se parece a aquel; pero conviene no olvidar que ese jabón común, si está bien elaborado sigue siendo el mejor del mundo y ello lo demuestra, el que los dermatólogos aquí en mi tierra; siguen recomendando como el mejor para cuidar la epidermis humana e incluso indicado para el lavado de las partes íntimas, tanto del hombre como de la mujer; puesto que no hace muchos años en esta larga historia, que incluso a los recién nacidos, los lavaban con jabón que se obtiene con aceite de aceituna (mal llamado de oliva), puesto que es en sí mismo un jabón medicinal; pero veamos esa historia resumida y que en una tablilla de arcilla de esos tesoros bibliográficos que nos dejaron los mesopotámicos, encontraron los pacientes arqueólogos y luego supieron descifrar y transmitirnos.

Se afirma que la receta data de hace unos cinco milenios (tres antes de Cristo) y en ella se describe una mezcla de una parte de aceite y cinco de potasa. Los romanos no dispusieron de jabón hasta el siglo IV; anteriormente usaban una pasta formada por aceite de aceituna (oliva) y piedra pómez (supongo que reducida a polvo lo más fino posible). El aceite o las grasas animales, sebo, etc. mezclados con cenizas de haya, producían el jabón blando, que se usó hasta el siglo XIX. El jabón duro, mezcla de aceite vegetal con sosa extraída de cenizas de algas calcinadas, estaba perfumado y constituía un artículo de lujo que se fabricaba en Castilla, Venecia y Marsella desde el siglo XV. El precio del jabón disminuyó, desde 1820 gracias a la fabricación de la sosa en gran escala; la consiguiente mejora de la higiene personal contribuyó a reducir la mortandad infantil a mediados del siglo XIX.

En 1903 dos químicos alemanes Hermann Geissler y Hermann Bauer, inventaron y fabricaron polvo de jabón seco. Lo vendió por primera vez en 1906 la compañía Henkel de Düsseldorf con el nombre de “Persil”. El jabón en polvo comenzó a sustituir al jabón en pastillas, para el lavado; pero a partir de 1930 fue relevado por los detergentes… que como ya todos conocemos, han ido evolucionando en múltiples formas y presentaciones (escamas, granulados, polvo, líquido) y que junto a las lavadoras, revolucionaron el antes, tan penoso lavado de ropa y que nuestras madres y abuelas conocieron o mejor dicho… padecieron.

En el aseo humano, antes incluso el lavado del cabello se hacía con jabón del tipo “pastilla”… algunas mujeres, se lavaban el cabello, frotando el mismo con el contenido de un huevo de ave de corral… quizá por ello, los primeros famosos champús que conocimos señalaban aquello tan famoso de… “champú al huevo”; después aparecieron los gel de baño y que siguen proliferando, en cantidades y formulaciones infinitas… pero a pesar de todo ello, muchos usuarios se quejan de que estos “jabones” le resecan la piel; cosa que con un buen jabón fabricado con aceite de aceituna (mal denominado de oliva) no ocurre, puesto que esta grasa natural y que es el zumo de un fruto (la aceituna) al propio tiempo que limpia, sirve de cosmético y cuida la piel. Es más, si usted y en la primera agua caliente que cae en la bañera (unos cinco litros) vierte en ellos, un chorreón de aceite virgen de aceituna (unos 30/40 centímetros cúbicos) y lo bate fuertemente con la mano, hasta emulsionarlo con esa agua; luego añade la que tenga por costumbre; se baña y enjabona y luego se ducha… al terminar el baño y secar su epidermis; pase la mano por su piel y notará como ha quedado revestida de una finísima capa, de una suavidad notable y que le protege y embellece, no dejándole olor desagradable… al contrario y como decían nuestras abuelas… “huele a limpio”.

Hay que significar que el único aceite natural es el obtenido de la aceituna y por presión natural (el de orujo de aceituna, siendo bueno, no es lo mismo, puesto que ya para obtenerlo y al igual que el resto de los mal denominado aceites… precisan de química, que los desvirtúa y dejan por tanto, de ser productos netamente naturales)… por todo ello, nada que no sea aceite de aceituna… debiera denominarse con la palabra aceite; puesto que todos son grasas industriales, sean de procedencia vegetal o animal.

Es por lo que este producto es valiosísimo, puesto que es alimento, cosmético, medicina, e igualmente producto para infinitas preparaciones en conservas naturales, de cualquier tipo… así es que cuando compre aceite, sepa lo que compra y no regatee el precio… Ya los griegos lo aceptaron como algo maravilloso que les regaló, la diosa Palas Atenea… rechazando, otros regalos que otros dioses, les ofrecieron: aquella diosa les ofreció con el olivo… alimento, combustible y belleza para fabricar útiles necesarios, con sus bellas y duras maderas; iluminación para sus candiles, medicina para su organismo y cosmética para su piel… incluso es un contraveneno, natural… y muchas cosas más, que se siguen investigando y descubriendo por los estudiosos de este único producto, tan versátil y útil para la humanidad… incluso y para la vanidad humana, hay que recordar que las primeras coronas para glorificar a los “grandes”, fueron de ramas tiernas de olivo… “el laurel romano… vino después”.

Por todo ello, cuando vea un olivo; que es uno de los árboles más duros y longevos que nacieron en este planeta, sepa rendirle el homenaje que merece y si viene por mi tierra andaluza y visita sobre todo… “el mar de olivos de la provincia de Jaén”, puede extasiarse viéndolo y aspirando la paz y bienestar que produce… como hecho significativo, se dice y escrito está; que las tropas del hasta entonces invencible Napoleón, pasado el paso y desfiladero de Despeñaperros y entrar en aquellas llanuras en las que ya abundaba el olivar; su general ordenó… “presentar armas a aquel bellísimo panorama natural”… hoy ese olivar es inmensamente más extenso y como corresponde a la mayor productora mundial del buenísimo… aceite de aceituna.

LO QUE DARWIN NUNCA DIJO...

JAVIER YANES - MADRID - PÚBLICO.ES

A Charles Darwin, que hoy habría cumplido 200 años, se le ha acusado de inspirar la eugenesia y el genocidio nazi, y tanto el capitalismo como el marxismo lo han reivindicado para sí tirando de diferentes hilos, ya sea el de la competición por la supervivencia o el del materialismo ateo. Pocas figuras se han manipulado tanto como la de este científico, y pocas doctrinas se han deformado tanto por ignorancia o con la intención de servir a intereses ajenos a la ciencia. Lo que sigue es un repaso de algunos de los errores, falacias e imprecisiones más frecuentes sobre la vida y la obra del naturalista inglés que inauguró la biología evolutiva.

1. El hombre desciende del mono

Este mantra, repetido hasta la saciedad, no forma parte del darwinismo. En su obra de referencia, El origen de las especies, Darwin no abordó el linaje humano, pero "al día siguiente de publicarlo, la gente ya decía que el hombre viene del mono", afirma el codirector de Atapuerca, Juan Luis Arsuaga. Los detractores de Darwin lo ridiculizaron en caricaturas que mostraban al eminente científico convertido en un simio peludo. Posteriormente, en El origen del hombre, Darwin planteó la hipótesis de que humanos y simios descienden de progenitores comunes, no unos de otros. En realidad, la idea no era novedosa para la ciencia de mediados del XIX, sino que aparecía sugerida en trabajos de otros científicos, como Thomas Henry Huxley.

2. La evolución es una escalera que conduce al ser humano

El del hombre y el mono es un caso particular de un error más general, entender la evolución como una carrera de relevos en la que una especie cede el testigo a otra. A esta confusión contribuye un recurso gráfico mil veces utilizado: un simio caminando tras una fila de antropoides con rasgos cada vez más humanos hasta llegar al hombre. Pero ni el ser humano desciende del mono, ni ninguna especie viva se ha detenido a medio camino de la evolución para dar el relevo a otra. Suele equiparse lo más evolucionado a lo mejor, como en las generaciones sucesivas de teléfonos o de coches. Pero un chimpancé no es menos evolucionado que un humano. De hecho, genéticamente se podría considerar más evolucionado; un estudio elaborado por científicos de la Universidad de Michigan (EEUU) y publicado en PNAS en 2007 descubría que el genoma del chimpancé acumula un 51% más de genes modificados por selección natural que el del Homo sapiens. Para el primatólogo Josep Call, la humana es solo "una especie más".

3. Los organismos evolucionan para adaptarse al medio

En la ciencia-ficción de serie B es un recurso habitual que monstruosos seres evolucionen para aumentar su poder mortífero frente a los sufridos protagonistas humanos. Esta acepción de evolución respeta el diccionario, pero no el concepto científico de evolución biológica: no evolucionan los organismos, sino las especies o los linajes. Esta idea entronca con otra noción errónea; ni el monstruo ni su linaje podía evolucionar con un fin concreto. Entre los protoevolucionistas anteriores a Darwin, el francés Jean Baptiste Lamarck propuso que los organismos se adaptaban al medio y legaban esas adaptaciones a su progenie; por ejemplo, la jirafa estiró el cuello para comer y produjo crías con cuellos más largos. El modelo de Darwin reveló que es el medio el que selecciona a los mejor adaptados a la supervivencia y reproducción. Sin embargo, hoy el lamarckismo sigue infiltrando cierta interpretación popular de la evolución.

4. El darwinismo es un dogma

Ni siquiera Darwin se liberó por completo del lamarckismo. Al desconocer la genética y los mecanismos de mutación y herencia, Darwin no sabía cómo se producen las variaciones sobre las que actúa la selección natural, lo que le hizo proponer un rocambolesco mecanismo de herencia para las modificaciones que el organismo adquiría a lo largo de su vida: si un individuo fortalecía un músculo, sus células liberaban unas gémulas que llevaban esta información al esperma o al óvulo para que la progenie naciese con el músculo más desarrollado. Cuando más tarde se divulgaron las leyes de la herencia formuladas en la misma época por el monje checo Gregor Mendel, muchos científicos las rechazaron por considerarlas contrarias al darwinismo: frente a la variación azarosa y continua de Darwin, Mendel planteaba una herencia matemáticamente predecible y estática. No fue hasta la década de 1930 que genética y evolución confluyeron en la llamada teoría sintética.

5. Darwin explicó el origen de la vida

Ni Darwin ni la moderna biología han logrado aún explicar cómo surgió la vida a partir de las moléculas biológicas primitivas. Darwin tampoco pretendió revelar el origen de la vida, sino solo su evolución una vez que existieron los primeros seres. En su autobiografía escribió que en la época de El origen de las especies aún era teísta, creyente en un dios como primer motor que había intervenido para prender esta primera chispa de vida y desencadenar un mecanismo evolutivo autoalimentado mediante leyes naturales.

6. Darwin inventó los conceptos de evolución y de supervivencia del más apto

Las ideas de antepasados comunes y de transmutación de unas especies en otras aparecen ya en los escritos de Anaximandro, filósofo griego del siglo VI a.C., así como de otros pensadores en Occidente y Oriente. Algunos de estos autores se basaban en la observación de los fósiles. Incluso una noción primitiva de selección natural aparece ya en la Grecia clásica. Pero la expresión "supervivencia del más apto" no fue acuñada por Darwin, sino que la adoptó en ediciones posteriores de El origen tras haberla leído en los Principios de Biología del filósofo victoriano Herbert Spencer, quien a su vez había inventado el eslogan al incorporar a su obra las ideas publicadas por Darwin. Ni siquiera el término evolución aparece una sola vez en El origen; este vocablo se popularizó más tarde y también Spencer fue uno de los primeros en emplearlo.

7. Los pinzones de las Galápagos inspiraron el eureka

Rara vez la ciencia avanza por eurekas; lo habitual, también en el caso de Darwin, es un progreso continuo y laborioso que bebe de múltiples fuentes. En cuanto a los pinzones, que con sus picos adaptados a diferentes alimentos han pasado a la historia como las musas de Darwin, no aparecen siquiera mencionados en El origen. En esta obra, Darwin se limitó a exponer la comparación entre las aves en general de este archipiélago y de otros lugares. En obras posteriores, Darwin sí recurriría a la comparación de especies, pero su interés no se centró en los pinzones, sino en los sinsontes.

8. Darwin refutó la creación bíblica

La fijación de los fundamentalismos religiosos por Darwin como enemigo supremo induciría a pensar que fue el británico quien destronó a la Biblia como pauta para explicar la historia natural. No fue así. En el Reino Unido, la sociedad victoriana sufría ya antes de Darwin una crisis de fe de etiología compleja, donde la razón se imponía a la revelación. A ello contribuyeron los descubrimientos en geología, que restaban crédito a la creación narrada en el Génesis en favor de una Tierra formada lentamente a lo largo de millones de años y por los mismos fenómenos que actúan hoy, no por grandes catástrofes repentinas como el diluvio universal. Esta teoría fue formulada por el geólogo y cristiano devoto Charles Lyell, y ejerció una fuerte influencia en el pensamiento de Darwin. La evolución tal como la formuló su autor no refutaba una posible creación divina, e incluso el propio científico creyó en ella durante años.

9. Darwin perdió la fe por su ciencia y fue enemigo de la religión

Ni Darwin fue un ateo militante, ni se convirtió al cristianismo en su lecho de muerte. Ambas visiones corresponden a manipulaciones de su figura, que se ha tomado como enemigo o modelo desde trincheras opuestas. Darwin explicó en su autobiografía las razones que le llevaron a abandonar la fe, y fueron argumentos sencillos que cualquier persona sin conocimientos científicos podría utilizar: las contradicciones entre distintas religiones reveladas, la negación de un Dios cruel y castigador o el rechazo a una supuesta condenación eterna para los paganos. Y su última conversión antes de morir es otro mito sin pruebas. Pero Darwin no eligió su papel como blanco del fundamentalismo religioso. Respetó las creencias de otros, como su propia esposa, y se unió al agnosticismo científico adoptado por figuras como su amigo y colega Thomas Henry Huxley. Para el agnosticismo de Huxley y Darwin, es tan imposible demostrar la existencia de Dios como lo contrario, y el ateísmo es también un acto de fe.

10. Es solo una teoría

Recientemente, un semanario católico publicaba un artículo en el que, sin negar la doctrina evolucionista, se afirmaba que "las teorías de Darwin siguen siendo una hipótesis. Falta constatación empírica". En tales afirmaciones subyace el error de equiparar la teoría a la pura especulación. Para el método científico, ninguna hipótesis se puede demostrar como cierta, sino solo como falsa. Se asume su validez cuando las pruebas merecen la aprobación de la comunidad científica. En 150 años se han aportado miles de indicios que impulsan la teoría evolutiva en el sentido que lleva desde entonces, y ni uno solo en el sentido contrario. Como señala el genetista Antonio Barbadilla, "nadie duda de otras teorías científicas que no afectan a las creencias, y pocas están tan contrastadas como la evolución".

EL AÑO DEL CIELO

TRIBUNA | SAÚL BLANCO LANZA – Diario de León - España

EL 19 DE SEPTIEMBRE de 2007, por iniciativa de la Unesco y de la Unión Astronómica Internacional, la Asamblea General de la Organización de las Naciones Unidas declaró oficialmente el 2009 como Año Internacional de la Astronomía. Se conmemora así el cuarto centenario del nacimiento de la astronomía moderna, con las primeras observaciones sistemáticas del firmamento a través del telescopio por parte de Galileo en 1609. Desde entonces incontables avances científicos han revolucionado nuestra visión del Cosmos, un hogar desconcertante y misterioso que apenas hemos comenzado a explorar. Hemos comprendido nuestro vínculo íntimo con la historia del Universo. Sabemos que todo nuestro planeta, con sus miserias y sus grandezas, es sólo una insignificante mota de polvo perdida en la inmensidad del océano cósmico. Sabemos que quizás compartimos este océano con otras civilizaciones. Sabemos que los átomos que forman nuestro cuerpo se formaron en el corazón de una estrella hace miles de millones de años. Por primera vez somos capaces de acercarnos al origen y destino del Universo sin recurrir a explicaciones mitológicas. Hemos puesto el pie en otro mundo y nuestros ingenios tecnológicos han alcanzado ya los confines del Sistema Solar.

A pesar de ser la ciencia más antigua, la astronomía goza hoy de una vigorosa juventud. Estamos inmersos en la Edad de Oro de las ciencias del espacio. A diario nos llegan noticias de fascinantes avances que hubieran resultado totalmente insospechados hace tan sólo unos años. El descubrimiento de agua en Marte, la materia oscura o las explosiones de rayos gamma mantendrán ocupados a generaciones de científicos durante décadas. En este sentido, España ocupa desde hace años una posición de liderazgo en cuanto a investigación astronómica. La producción científica de diversas instituciones españolas constituyen actualmente referencias mundiales en sus respectivas disciplinas.

Adicionalmente, los investigadores en alta tecnología de nuestros centros participan con asiduidad de los programas astronáuticos de la Agencia Espacial Europea, como ponen de manifiesto la decisiva participación española en la puesta a punto de numerosos satélites de comunicaciones o en el diseño de diversos módulos de la Estación Espacial Internacional. Esto ha provocado un interés cada vez mayor por las ciencias del espacio, interés que se demuestra de forma cotidiana en el éxito de observatorios, museos científicos, planetarios, etcétera que intentan acercar al ciudadano de a pie a este fascinante mundo y hacerle partícipe de los descubrimientos en este campo. Asimismo, existen en todo el mundo millo nes de aficionados que, con sus modestos equipos y gracias a sus pacientes observaciones, colaboran habitualmente con expertos en importantes proyectos de investigación.

Decenas de nuevos asteroides, cometas y supernovas han sido descubiertos por aficionados españoles en los últimos años. Las agrupaciones de astrónomos no profesionales ponen a disposición de la gente la belleza del firmamento estrellado a través de observaciones públicas con motivo de fenómenos que generan gran expectación, como los eclipses o las lluvias de estrellas. Muchas personas tienen oportunidad así de mirar a través de un telescopio por primera vez en su vida. La divulgación astronómica se enfrenta hoy, sin embargo, a preocupantes retos difíciles de superar. La contaminación lumínica -"el efecto pernicioso de la iluminación artificial excesiva sobre la calidad del cielo-" nos impide ver más allá de una cuantas estrellas brillantes desde los núcleos urbanos. Bajo la falsa premisa de que iluminar mucho es iluminar bien, el paisaje nocturno de muchas ciudades se ha convertido en un mar de luminarias obsoletas e ineficientes que, además de despilfarrar energía, nos privan del maravilloso espectáculo que supone contemplar la bóveda celeste. Por otra parte, la Astronomía, considerada hasta hace no mucho uno de los pilares de la formación educativa, ha desaparecido prácticamente de los planes de estudio, de forma que, a pesar de su natural interés, el nivel de conocimientos de nuestros escolares sobre esta materia es cada vez más deficiente. Muchos reconocen sin embargo en esta disciplina una puerta didáctica privilegiada hacia otras ciencias, como las Matemáticas, la Física o la Geografía.

Bajo el lema «el Universo para que lo descubras», el Año Internacional de la Astronomía permitirá que entendamos la Astronomía como parte de la cultura científica necesaria para la formación integral de los ciudadanos del siglo XXI. Las actuaciones divulgativas que se llevarán a cabo a nivel mundial este año tienen como último objetivo conseguir que los comprendamos el contexto cósmico en el que se enmarca nuestra historia. El firmamento es la esencia de nuestro patrimonio inmaterial, y es por tanto un recurso que, como parte del legado intergeneracional de todas las civilizaciones, es necesario comprender y preservar.

SCIENCE 2008

Washington, 29 de diciembre. El proceso de rejuvenecimiento de células de pacientes individuales constituye el “hito científico” del año, según la redacción de la renombrada revista estadunidense Science, que elaboró una lista de los 10 trabajos más importantes de 2008.

La reprogramación celular de pacientes podría ser muy importante en el futuro para comprender y tratar enfermedades, como el mal de Parkinson y la diabetes.

“Este año, los científicos lograron una obra maestra largamente buscada de la alquimia celular”, dice el artículo de Science en referencia a los avances en técnicas celulares.

Un equipo de investigadores tomó células de la piel de una mujer de 82 años que padecía una enfermedad neuromuscular, las reprogramaron y las convirtieron en células sanas.

Una semana después, otro grupo de científicos informó sobre la obtención de líneas celulares de varios pacientes con 10 enfermedades diferentes, como síndrome de Down, Parkinson y mal de Huntington. Estas líneas celulares podrían servir para investigar las enfermedades y probar medicamentos.

El objetivo a largo plazo es poder tratar a los pacientes con sus propias células. Estas células son conocidas como células madre pluripotentes inducidas (iPS, según sus siglas en inglés).

El segundo lugar de la lista de Science corresponde a la técnica telescópica, con la que se pueden observar de manera directa planetas de sistemas solares lejanos. Anteriormente, la presencia de estos exoplanetas sólo podía comprobarse de manera indirecta.

“Ahora, los investigadores vieron por primera vez exoplanetas”, escribió la redacción de Science.

Estudios sobre cáncer

Los puestos del tres al 10 de la lista no siguen un orden de importancia.

Entre ellos figura el descubrimiento de un gran número de genes cancerígenos, que amplían el catálogo de los de los tipos conocidos de un determinado tumor cerebral.

También incluye un novedoso supraconductor japonés de hierro, que a determinadas temperaturas no ofrece ninguna resistencia a la electricidad.

Este año, los bioquímicos “vieron cómo trabajaban proteínas” y mostraron cómo se unen. Sólo un equipo de investigadores alemanes observó la interacción de hasta 6 mil proteínas de levaduras. También esta técnica podría servir en el futuro para lograr nuevas miradas a las enfermedades.

Un gran avance en el tema de las energías alternativas se espera lograr con un nuevo medio de almacenamiento. Un catalizador constituido por cobalto y fósforo puede separar el oxígeno y el hidrógeno del agua, a bajo costo, usando energía eólica y solar. Con el hidrógeno formado se podría producir posteriormente electricidad.

Hasta ahora, los catalizadores para separar al agua en sus componentes atómicos eran muy caros.

El “baile de las células” desde la fecundación a lo largo de 24 horas hasta un estadio embrionario temprano fue registrado y analizado por biólogos que estudiaron el pez cebra. Los especialistas observaron el movimiento de hasta 16 mil células con una precisión nunca lograda hasta ahora, indicó Science.

Científicos encabezados por Philipp Keller del Laboratorio Europeo de Biología Molecular en la ciudad alemana de Heidelberg desarrollaron una nueva técnica de microscopía para el “video del embrión”, que también puede verse en el sitio de Internet YouTube.

Investigadores estadunidenses descubrieron una proteína que transforma grasa marrón en músculos y viceversa. En tanto, físicos de Alemania, Francia y Hungría predijeron de manera más precisa que hasta ahora la masa del protón y otras partículas atómicas.

Como último punto, Science mencionó un enorme avance en el desciframiento de genes. Con una técnica de fluorescencia se logró secuenciar gran parte del genoma del mamut y muchos genes del oso de las cavernas y del hombre de Neanderthal.

Con otra técnica se pudo descifrar de manera relativamente rápida el primer genoma de un asiático, de un africano y de una persona enferma de cáncer.

El fenómeno del año es para Science el Gran Colisionador de Hadrones (LHC, según sus siglas en inglés), un acelerador de partículas que fue puesto en marcha por el Laboratorio Europeo de Física de Partículas en Ginebra. Con este gigantesco aparato, los físicos pretenden estudiar el big bang, la explosión que dio origen al universo, entre otros.

Como “técnica del año” fue distinguida por la revista británica Nature el microscopio de fluorescencia de alta resolución, que permite dar una mirada a áreas particularmente pequeñas de las células vivas. Stefan Hell, director del Instituto Max Planck de Química Biofísica en Gotinga, Alemania, desarrolló este equipo que tiene una resolución de 60 nanómetros, es decir, 60 millonésimos de milímetro.

EL ACELERADOR DE PARTICULAS

El acelerador de partículas LHC. Avance científico y estratégico europeo


Gustavo Herren (especial para ARGENPRESS.info)
 
¿Cuál es la estructura última de la materia? Esta pregunta motivadora desde hace al menos 2500 años, aún sigue abierta para la Física de Partículas, y es una de las causas para la construcción del acelerador circular de mas de 8 kilómetros de diámetro. El LHC (Large Hadron Collider; Gran Colisionador de Hadrones) que actualmente esta comenzando a operar, fue construido por la Organización Europea para la Investigación Nuclear (CERN) (1), llevó mas de 12 años y mas de 4.000 millones de dólares. 

La pregunta sobre la estructura elemental de la materia tuvo una respuesta fuera de conjeturas, recién hace unos 200 años. El científico inglés Dalton estableció una teoría en que la materia esta formada por partículas que llamó átomos (1803), explicando las causas de varias leyes químicas antes halladas experimentalmente. Marcó así un punto relevante, porque por primera vez en la Historia fue confirmándose que toda la materia conocida tiene carácter discreto (no es continua), y está formada por ’ladrillos’ o unidades microscópicas que se consideraron (en esa época) indivisibles. 
Una sola célula biológica por ejemplo, puede contener del orden de 1000 millones de esas partículas ’elementales’, que son lo suficientemente pequeñas para no poder observarse con un microscopio óptico.
 
Cabe aclarar que en Física se puede definir como ’partícula elemental’ a un objeto indivisible, tal que no es posible distinguir su estructura interna, en el sentido que los errores de medición de todos los sistemas para medir disponibles en ese momento, no lo permiten. La partícula elemental es representada como si fuera un ’punto’ en el espacio, que tiene además asociada determinadas propiedades (como masa, carga eléctrica y otras). De manera que el concepto de ’elemental’ así definido, no es absoluto.
 
Así el avance científico-tecnológico, hizo que hacia fin de siglo XIX, el átomo dejara de ser partícula elemental, al descubrirse el electrón (experimento de J.J. Thomson, 1897) como una parte integrante del átomo. 
A principios del siglo XX se fue terminando de comprender como es la estructura del átomo (Rutherford, 1918), al descubrirse el protón (que se halla concentrado en la parte central o núcleo del átomo), y finalmente en 1932 se detectó el neutrón (Chadwick), que también se halla en el núcleo atómico. De modo que el protón, neutrón y electrón (constituyentes del átomo) fueron las partículas elementales por unas 4 décadas, pero luego como se verá, se encontró que el protón y el neutrón son partículas compuestas y solo el electrón es elemental. 
A partir de los años 30’s fueron descubiertas otras partículas subatómicas que parecían no estar en el átomo, como por ejemplo los positrones, neutrinos, los mesones. 
  
Cómo son descubiertas las partículas fundamentales del Universo
Hasta la década de los 50’s buena parte de esas partículas fue descubierta investigando la ’radiación cósmica’, que es un flujo (’lluvia’) natural de partículas (en gran parte protones) algunas de ellas con muy alta energía (incluso superiores al LHC), que llega permanentemente a la Tierra desde el cosmos, y se cree que es originada por estrellas que han explotado. Al entrar en la atmósfera interactúan con los núcleos de sus átomos y dada la elevada energía en juego pueden crearse toda una gama de otras partículas. 
Este mecanismo, es como si para encontrar la estructura interna de un objeto que no se puede desarmar, se le dispara otro para ’romperlo’, y de la colisión (y rotura) surge información de su interior, y cuanto mayor es la energía del ’proyectil’ se obtendrá mayor información sobre las partes pequeñas, así para penetrar cada vez mas las estructuras subatómicas serán necesarias energías cada vez mas elevadas. Pero la analogía no va mas allá. 
El caso de Física de partículas tiene mucho mayor complejidad, no es solo una fragmentación, ya que en la colisión pueden crearse nuevas partículas que no estaban entre los constituyentes de las originales. Hecho que esta de acuerdo con la teoría de la Relatividad Especial (Einstein, 1905) y su equivalencia entre masa y energía, en que ésta se puede convertir en masa (y viceversa).
 
Para sistematizar las investigaciones y obtener condiciones controladas de laboratorio, había que reproducir artificialmente un mecanismo similar al de la radiación cósmica. Una de las motivaciones de peso que ayudaron a semejantes emprendimientos fue que después de la Guerra Mundial II, los gobiernos de algunas potencias creían que el poderío militar asegurado por la bomba atómica, estaba íntimamente ligado a la Física Nuclear. De modo que desde la década de 1950 dieron impulso al diseño y construcción de los llamados ’aceleradores de partículas’, destinados al principio para investigar el núcleo atómico.
 
Estos aparatos producen fuerzas sobre partículas con carga eléctrica (como el electrón o el protón por ejemplo) aplicando campos electromagnéticos. Las partículas aceleradas colisionan con otras y en esa interacción puede surgir nueva información. 
El tubo de rayos catódicos (CRT) de los televisores ampliamente utilizados hasta hace pocos años, es un acelerador de partículas. Un filamento caliente emite electrones (que tienen carga eléctrica negativa) que son acelerados por un campo eléctrico (originado por una diferencia de potencial (voltaje)), y finalmente colisionan contra los átomos de la pantalla, generando en este caso luz que es lo que permitirá ver la imagen. La energía que puede alcanzar un electrón en el CRT es del orden de 10 mil electrónvolt (10 KeV; el electrónvolt (eV) es una unidad de energía) (2). Los tubos de rayos X utilizados en medicina para tomar radiografías, son también aceleradores de partículas (electrones) que permiten obtener energías del orden del 100 mil eV (100 KeV). Tanto en los televisores como en los tubos de rayos X, los electrones son ’relativistas’ (esto es, tienen velocidades muy cercanas a la máxima velocidad posible para todo objeto material que es la velocidad de la luz en el vacío, según la teoría de Relatividad Especial). 
En los primeros aceleradores para laboratorio construidos por los países industrializados, las partículas cargadas alcanzaban energías del orden de 1 millón de eV (1 MeV). En el acelerador de partículas (protones) mas potente actualmente construido, el LHC, se obtienen energías del orden de 10 millones de millones de eV (10 TeV), es decir 10 millones de veces mayores que en los primeros aceleradores (en realidad, como es un ’colisionador’ de dos haces opuestos de protones relativistas de 7 TeV cada uno, se obtendrán 14 TeV).
 
Las actuales partículas elementales. El Modelo Estándar
La ’carrera’ de los aceleradores de partículas de los años 50’s, llevó a que se encontrara una variedad sorprendente (cientos) de partículas nuevas. A principios de los 70’s, esos resultados experimentales pudieron ser interrelacionados bajo el formalismo de la Teoría Cuántica de Campos (QFT), que utiliza las dos teorías físicas centrales de principios del siglo XX (la Relatividad Especial y la Cuántica) obteniéndose el llamado ’Modelo Estándar’ de partículas (y fuerzas). Explica un buen número de partículas descubiertas en los aceleradores, y cuando fue planteado en los 70’s predijo teóricamente la existencia de nuevas partículas elementales no encontradas todavía en esa época. Actualmente, todas las partículas que el modelo indica han sido encontradas, salvo un objeto crucial y allí entra en juego el nuevo acelerador LHC. 
 
Este modelo describe a toda la materia conocida (3) como formada por una docena de partículas elementales, 6 se llaman ’quarks’ y las otras ’leptones’, gobernadas por las 4 fuerzas fundamentales que hasta hoy se conocen en la naturaleza, aunque el modelo describe solo 3, ya que en la escala microscópica de las partículas la gravitación es tan débil como para poder en principio despreciarse. Las otras son la fuerza electromagnética, la fuerza débil y la fuerte, estas dos últimas son subatómicas de corto alcance. De modo que el modelo, aunque viene teniendo un excelente consistencia con los resultados experimentales, no es completo para describir la naturaleza.
 
En cuanto a las fuerzas, la Teoría Cuántica de Campos (QFT) en la cuál se basa el Modelo Estándar, describe las interacciones entre partículas como intercambio de otras partículas llamadas ’mediadoras o intermediarias’ (aunque son partículas virtuales en el sentido de la Mecánica Cuántica). Como ejemplo grosero de este mecanismo se pueden suponer dos patinadores sobre hielo, tal que uno arroja una bolso pesado al otro; tanto el que lo arrojó como el que lo recibió sufrirán un impulso que tiende a alejarlos. Los patinadores harían de ’partículas’, el bolso de ’partícula mediadora’, y el efecto es como si hubiera una fuerza. 
Pero por una parte, la matemática del Modelo Estándar para la interacción débil (usa un caso particular de la QFT que se llama teoría cuántica de campos de gauge (medida), y sus simetrías) requiere que sus partículas mediadoras tengan masa nula, aunque por otra parte las evidencias experimentales muestran lo contrario. De modo que el modelo no explica el ’origen de la masa’.
 
Una ’pieza’ clave: el bosón de Higgs
Entonces, para poder aplicar la teoría de gauge, Peter Higgs, Robert Brout y François Englert conjeturaron que la masa vendría por otro lado. Postularon un mecanismo externo en que la masa provendría del vacío, que no sería tal sino que habría un campo llamado de Higgs, cuyo cuanto (bosón de Higgs) proveería la masa a todas las partículas (burdamente, como trozos de papel absorbente (partículas) impregnándose en un charco de tinta (campo de Higgs)). 
 
El bosón de Higgs todavía no ha sido hallado, y es una de las principales tareas del recientemente activado acelerador europeo LHC. El problema es que el modelo no predice su masa, sino un intervalo en el cuál debería existir (aprox. entre 0,1 TeV y 1 TeV) y que es cubierto por el LHC. De todas maneras si no es hallado, significará también un avance importante ya que los físicos deberán proponer nuevas ideas para explicar el origen de la masa de las partículas. 
 
Resumiendo, actualmente se plantea (según el Modelo Estándar) que toda la materia conocida del Universo esta formada por partículas cuyos constituyentes elementales son los quarks y los leptones, que interactúan por 4 fuerzas. 
Los leptones (como el electrón por ejemplo), puede encontrarse como partículas libres, en cambio los quarks siempre están en estados ligados (formando por ejemplo el protón y el neutrón). 
Los hadrones con los que trabajará el Gran Colisionador de Hadrones, son partículas compuestas por quarks, antiquarks (su antipartícula) y gluones (partículas mediadoras de la interacción fuerte). 
El acelerador LHC permitirá confirmar o descartar el mecanismo propuesto por Higgs (et all) sobre como las partículas adquieren masa, uno de los puntos clave para seguir avanzando en la frontera del conocimiento sobre partículas elementales. 
 
Si se comparan figurativamente tamaños típicos de los quarks y los átomos (cuánticamente las partículas no tienen borde, ni tamaño definido), para el átomo es del orden del Angstrom (1 millonésima parte de 1/10 de milímetro), el protón es unas 100.000 veces menor que el átomo, el electrón (leptón) y el quark son 1000 veces menores que el protón. (Pensando hipotéticamente en una escala macroscópica, si el átomo tuviera un diámetro de 10 kilómetros, el protón tendría 10 centímetros y los electrones y quarks 1/10 milímetros)
 
Verdades a medias. El LHC como factor estratégico 
¿Porque el enorme esfuerzo europeo en la construcción del LHC, el acelerador de partículas actualmente mas potente del mundo?
Luego del colapso de la URSS, y tal vez suponiendo que ya no era tan necesario mostrar el liderazgo en ciencia básica, el Congreso de EEUU canceló (1993) la construcción del acelerador de partículas Super Colisionador Superconductor (Superconducting Super Collider; SSC), mayor que el europeo LHC. El acelerador cuyo proyecto comenzó con Ronald Reagan y fue continuado por George H. W. Bush se había empezado a construir en Texas, era circular con un diámetro de casi 28 kilómetros y tendría una energía de 40 TeV. Posiblemente su cancelación haya sido un grave error estratégico, Clinton había intentado detenerla. 
 
Se suele afirmar, que el LHC producirá avances fundamentales en la investigación básica de Física de Partículas, y aquella parte del conocimiento científico producido que se constituya como bien público enriquecerá a la Humanidad en el corto plazo, y en el largo plazo contribuirá con las necesidades sociales, sentando bases para la prosperidad e innovación. Sin embargo, las consecuencias y motivos para semejante emprendimiento en investigación básica trascienden esta visión idealizada. 
 
En los hechos los resultados de los experimentos con el LHC, no solo producirán avances en la investigación teórica, sino que con cierto retardo también lo harán en la investigación aplicada, estos a su vez en algún momento se irán transmitiendo a las cadenas de producción con su escala de valores de competitividad y mercado. En la concepción capitalista, la ciencia intenta dominar la naturaleza en beneficio del sistema de producción, y en su escala de valores primero está el Capital y después los hombres y el medio ambiente. En el desarrollo de este proceso, los conocimientos derivados serán indefectiblemente explotados hasta sus últimas consecuencias. Es decir, que no producirán únicamente beneficios para la Humanidad, ya que al incorporar la concepción mercantilista no se reparará en los aspectos nefastos, y hasta extremo negativos para la sociedades como la industria bélica. Es cierto que no se puede predecir cuantitativamente el nivel de impacto positivo ni negativo, aunque éste último puede ser en principio igualmente probable que el primero, por mas que las partes interesadas generalmente invoquen públicamente solo ’el progreso, la prosperidad y la innovación’. 
 
Estratégicamente el acceso a la frontera del conocimiento en la estructura de la materia, contribuirá significativamente a afianzar la supremacía y liderazgo científico mundial para las potencias regionales europeas. Y hace a la directiva que vienen aplicando en el mundo tanto éstas como EEUU: ’evitar que emerja un rival’, que en lo no militar incluye prevenirse de la sorpresa tecnológica de las potencias competidoras y a su vez creársela; controlar y acotar el desarrollo científico-técnico de las naciones en desarrollo y con débil industrialización. Para lo cual utilizan diversos mecanismos, frecuentemente mediante el mismo conocimiento. Paradójicamente algunos convenios de cooperación pueden influenciar sobre la elección de campos de investigación que siguen a ’remolque’ de las potencias dominantes, y sobre ’modas’ centrales que debiliten la creación propia o endógena de conocimiento científico. 
 
El proyecto, diseño, construcción y posterior operación e investigaciones de una máquina tal, genera importante actividad y es fuente de ocupación, desde obreros de la construcción, hasta administrativos, profesionales, técnicos, científicos e industrias proveedoras pero principalmente de los países centrales. Los primeros avances científicos, beneficios económicos y aplicaciones militares generados por el emprendimiento serán capitalizados por las potencias industrializadas involucradas. Es decir en el largo plazo, tendrán una probabilidad relevante de ’amortización’ (aunque no en la forma directa convencional) y alto retorno de inversión en beneficio de la economía de los países centrales constructores. Seguramente así lo entienden algunos inversores, como el Banco Europeo de Inversiones (EIB) brazo financiero de la Unión Europea, que en el 2003 otorgó un crédito de 300 millones de euros para la construcción del LHC. 
Actualmente ya se está trabajando en otro multimillonario proyecto europeo, para construir el Colisionador Lineal Internacional (International Linear Collider (ILC)) que opera con principios similares al LHC. Pero así como éste esta diseñado para ’descubrir’ y abrir nuevas áreas de la Física, el ILC será diseñado para explorar detalladamente los descubrimientos que haga el LHC. 

EL EXPERIMENTO CIENTIFICO DEL SIGLO

Por: Virginia Hebrero - Ginebra, 8 sep (EFE).- El que ya se considera el experimento científico del siglo, la puesta en funcionamiento del acelerador de partículas más potente del mundo, el LCH, arrancará el próximo miércoles en el Laboratorio Europeo de Física de Partículas (CERN), en la frontera suizo-francesa.

Después de décadas de trabajos, el Gran Colisionador de Hadrones (LHC, por sus siglas en inglés), "la mayor máquina superconductora del mundo y una maravilla tecnológica", en palabras del director del CERN, Robert Aymar, empezará por fin a andar.

Por primera vez, circularán por la máquina -un largo túnel subterráneo de 27 kilómetros bajo la frontera suizo-francesa- haces de partículas (protones o iones de plomo) a velocidad próxima a la de la luz.

Pero no habrá por el momento colisión de partículas, pues no se inyectarán haces en sentido contrario hasta varios meses después, cuando se compruebe la evolución del funcionamiento.

"El 10 de septiembre comenzará a circular el haz de protones en el acelerador. Esperamos que circulen de una manera estable, pero no se producirán todavía las colisiones", explica María Chamizo-Llatas, doctora en física de partículas y representante española en el CERN.

"Eso tardará un tiempo, esperamos que sea para finales de año", agregó, en una entrevista difundida por el CERN.

Chamizo-Llatas subrayó que "el 10 de septiembre es el primer paso para comprobar que el acelerador funciona", se trata de estabilizar el sistema.

Los haces serán inyectados en el LCH después de haber alcanzado una energía de 0,45 TeV (taraelectrovoltios, la unidad que mide los niveles de energía en los aceleradores de partículas), pero para continuar con el experimento y llegar a las colisiones de partículas, posteriormente "habrá que acelerar los protones a una energía superior, hasta conseguir los 5 TeV, la energía nominal para este año".

Para finales de 2008 o principios del 2009 se espera que se produzcan las colisiones de los dos haces de protones, que circularán, uno en sentido de las agujas del reloj y el otro en el sentido contrario.

Será entonces "cuando realmente empiece una nueva era en física de partículas, en la que podremos estudiar nuevos fenómenos que se produzcan, y en la que se intentará recrear las condiciones que se produjeron instantes después del Big Bang", agrega la física española.

Los haces de partículas serán dirigidos gracias a 9.300 imanes gigantes supraconductores.

El objetivo final de este gran experimento es poder dar respuesta a muchas preguntas sobre el origen del Universo, entender por qué la materia es en el Universo mucho más abundante que la antimateria, y llegar a descubrimientos que "cambiarán profundamente nuestra visión del Universo", afirma Robert Aymar.

Una de las aspiraciones de los científicos es encontrar el hipotético bosón de Higgs, una partícula que no ha sido jamás detectada con los aceleradores existentes, mucho menos potentes que el LHC.

Si esta partícula existe en verdad, sería la número 25, una más de las 24 conocidas, y podría ser detectada tras las colisiones de los haces de protones.

Situado en Ginebra, el CERN es un organismo europeo propiedad de sus 20 estados miembros, entre ellos España, pero que cuenta desde hace años con otros muchos países con estatuto de observador, como Estados Unidos, India, Israel o Rusia.

Sin embargo, en la construcción del LHC han participado más de 10.000 científicos e ingenieros de 580 universidades y de cerca de 100 nacionalidades.

"El día 10 será un momento muy emocionante, porque es el primer paso, después de todos los años que hemos trabajado, para poner en marcha una máquina que es muy complicada y alcanzar una energía que nunca se ha alcanzado en otro acelerador", afirma Chamizo-Llatas. - EFE

www.la-gerencia.com