HISTORIA DE LA TECNOLOGÍA, TECNOLOGÍA, OBJETOS ALREDEDOR DE NOSOTROS
Supercomputadora. Historia de la invención y la producción. Directorio / La historia de la tecnología, la tecnología, los objetos que nos rodean. Una supercomputadora es una computadora que es significativamente superior en sus parámetros técnicos a la mayoría de las computadoras existentes. Como regla general, las supercomputadoras modernas son una gran cantidad de computadoras servidor de alto rendimiento conectadas entre sí por una red troncal local de alta velocidad para lograr el máximo rendimiento en el marco del enfoque de paralelización de la tarea computacional. En 1996, el curador del Museo de la Computación en el Reino Unido, Doron Swade, escribió un artículo con un título sensacional: "La serie rusa de supercomputadoras BESM, desarrollada hace más de 40 años, puede atestiguar las mentiras de los Estados Unidos, que declaró la superioridad tecnológica durante los años de la Guerra Fría". De hecho, mediados de la década de 1960 fue un punto culminante en la historia de la tecnología informática soviética. En ese momento, muchos equipos creativos trabajaban en la URSS: los institutos de S.A. Lebedeva, IS Bruk, V. M. Glushkov, etc. Al mismo tiempo, se produjeron muchos tipos diferentes de máquinas, la mayoría de las veces incompatibles entre sí, para los propósitos más diversos. Creada en 1965 y lanzada por primera vez en 1967, la BESM-6 fue la computadora rusa original, diseñada a la par de su contraparte occidental. Luego estaba el famoso "Elbrus", estaba el desarrollo de BESM (Elbrus-B). V. M. Glushkov creó una maravillosa máquina de cálculo de ingeniería: "Mir-2" (un prototipo de computadora personal), que aún no tiene análogos occidentales. Fue el equipo de Elbrus el primero en desarrollar una arquitectura superescalar, habiendo construido la máquina Elbrus-1 basada en ella muchos años antes que Occidente. En este equipo, un par de años antes que en la empresa "Cray", un líder reconocido en la producción de supercomputadoras, se implementaron las ideas de una computadora multiprocesador.
Boris Artashesovich Babayan, líder científico del grupo Elbrus, profesor, miembro correspondiente de la Academia Rusa de Ciencias, cree que el logro más significativo del grupo es la arquitectura de la supermáquina Elbrus-3. “La velocidad lógica de esta máquina es muy superior a la de todas las existentes, es decir, en un mismo hardware, esta arquitectura nos permite agilizar varias veces la tarea. Hemos implementado por primera vez soporte hardware para programación segura , ni siquiera lo hemos probado en Occidente. "Elbrus-3 "fue construido en 1991. Ya estaba listo en nuestro instituto, comenzamos a depurarlo. Las firmas occidentales hablaron tanto sobre la posibilidad de crear tal arquitectura ... La tecnología era asquerosa, pero la arquitectura era tan perfecta que esta máquina era dos veces más rápida que el superdeportivo estadounidense más rápido de la época, el Cray Y-MP". Los principios de la programación segura se están implementando actualmente en el concepto del lenguaje Java, e ideas similares a las de Elbrus ahora forman la base del procesador de nueva generación, Merced, desarrollado por Intel junto con HP. "Si miras a Merced, es prácticamente la misma arquitectura que en Elbrus-3. Tal vez algunos detalles de Merced sean diferentes, y no para mejor". Entonces, a pesar del estancamiento general, todavía era posible construir computadoras y supercomputadoras. Desafortunadamente, a nuestras computadoras les sucedió lo mismo que a la industria rusa en general. Pero hoy, un nuevo parámetro, exótico a primera vista, se esfuerza persistentemente por ingresar en la cantidad de indicadores macroeconómicos tradicionales (como el PIB y las reservas de oro y divisas): la capacidad total de computadoras que tiene el país. Las supercomputadoras tendrán la mayor participación en este indicador. Hace quince años, estas máquinas eran monstruos únicos, pero ahora su producción se ha puesto en marcha. "Inicialmente, la computadora se creó para cálculos complejos relacionados con la investigación nuclear y de cohetes”, escribe Arkady Volovik en la revista Kompaniya. "Pocas personas saben que las supercomputadoras ayudaron a mantener el equilibrio ecológico en el planeta: durante la Guerra Fría, las computadoras simularon cambios en armas nucleares, y estos experimentos finalmente permitieron que las superpotencias abandonaran las pruebas reales de armas atómicas. Así, la poderosa computadora multiprocesador Blue Pacific de IBM se usa precisamente para simular pruebas de armas nucleares. De hecho, los científicos informáticos no contribuyeron al éxito de negociaciones para detener las pruebas nucleares Compaq Computer Corp. construye la supercomputadora más grande de Europa basada en 2500 procesadores Alpha La Comisión de Energía Nuclear de Francia utilizará la supercomputadora para mejorar la seguridad de los arsenales franceses sin más pruebas nucleares. No se necesitan cálculos a menor escala en el diseño de tecnología de aviación. Modelar los parámetros de un avión requiere una potencia enorme; por ejemplo, para calcular la superficie de un avión, es necesario calcular los parámetros del flujo de aire en cada punto del ala y el fuselaje, por centímetro cuadrado. En otras palabras, se requiere resolver la ecuación por cada centímetro cuadrado, y la superficie de la aeronave es de decenas de metros cuadrados. Al cambiar la geometría de la superficie, todo debe ser recalculado. Además, estos cálculos deben realizarse rápidamente, de lo contrario, el proceso de diseño se retrasará. En cuanto a la astronáutica, no comenzó con vuelos, sino con cálculos. Las supercomputadoras tienen un enorme campo de aplicación aquí". Boeing Corporation desplegó un supercúmulo desarrollado por Linux NetworX y utilizado para simular el comportamiento del combustible en el cohete Delta IV, que está diseñado para lanzar satélites con diversos fines. De las cuatro arquitecturas de clúster consideradas, Boeing eligió el clúster Linux NetworX porque proporciona un costo de operación aceptable e incluso supera los requisitos del proyecto Delta IV en términos de potencia informática. El clúster consta de 96 servidores basados en procesadores AMD Athlon de 850 MHz, interconectados a través de conexiones Ethernet de alta velocidad. En 2001, IBM instaló un clúster Linux de 512 procesadores con una capacidad de procesamiento de 478 mil millones de operaciones por segundo para el Departamento de Defensa de EE. UU. en el Centro de Supercomputación en Hawái. Además del Pentágono, el clúster también será utilizado por otros departamentos federales e instituciones científicas: en particular, un clúster para predecir la velocidad y dirección de la propagación de incendios forestales. El sistema constará de 256 servidores delgados IBM eServerx330, cada uno con dos procesadores Pentium-III. Los servidores se vincularán mediante un mecanismo de agrupación desarrollado por Myricom. Sin embargo, el alcance de las supercomputadoras no se limita al complejo militar-industrial. Hoy en día, las empresas de biotecnología son los principales clientes de las supercomputadoras.
"Como parte del programa Genoma Humano, IBM", escribe Volovik, "recibió la orden de crear una computadora con varias decenas de miles de procesadores. Sin embargo, la decodificación del genoma humano no es el único ejemplo del uso de computadoras en biología: la creación de nuevos medicamentos hoy en día solo es posible con el uso de computadoras poderosas Por lo tanto, los gigantes farmacéuticos se ven obligados a invertir fuertemente en tecnología informática, formando un mercado para Hewlett-Packard, Sun, Compaq No hace mucho tiempo, la creación de un nuevo medicamento tomó de 5 a 7 años y requirió costos financieros significativos. Hoy, sin embargo, los medicamentos se modelan en computadoras poderosas que no solo "construyen" medicamentos, sino que también evalúan su efecto en los humanos. Inmunólogos estadounidenses han creado un medicamento que puede combatir 160 virus. Esta droga fue modelada en una computadora durante seis meses. Otra forma de crearla requeriría varios años de trabajo". Y en el Laboratorio Nacional de Los Álamos, la epidemia mundial de SIDA ha sido "reducida" a su origen. Los datos sobre las copias del virus del SIDA se colocaron en una supercomputadora, y esto hizo posible determinar el momento de la aparición del primer virus: 1930. A mediados de la década de 1990, surgió otro mercado importante para las supercomputadoras. Este mercado está directamente relacionado con el desarrollo de Internet. La cantidad de información en la Web ha alcanzado proporciones sin precedentes y sigue creciendo. Además, la información en Internet está creciendo de forma no lineal. Junto con el aumento en el volumen de datos, la forma de su presentación también está cambiando: se ha agregado música, video y animación al texto y los dibujos. Como resultado, surgieron dos problemas: dónde almacenar la cantidad cada vez mayor de datos y cómo reducir el tiempo necesario para encontrar la información correcta. Las supercomputadoras también se utilizan en todas las áreas donde es necesario procesar grandes cantidades de datos. Por ejemplo, en banca, logística, turismo, transporte. Compaq otorgó recientemente un contrato de supercomputadora de $ 200 millones al Departamento de Energía de EE. UU. Hironobu Sakaguchi, presidente de la compañía de juegos para PC Square, dice: "Hoy estamos preparando una película basada en nuestros juegos. Square "calcula" un cuadro de la película en 5 horas. En GCube, esta operación toma 1/30 de segundo ." Por lo tanto, el proceso de producción de medios alcanza un nuevo nivel: se reduce el tiempo de trabajo en el producto, el costo de una película o un juego se reduce significativamente. El alto nivel de competencia obliga a los jugadores a reducir los precios de las supercomputadoras. Una forma de mantener el precio bajo es usar muchos procesadores estándar. Esta solución fue inventada por varios "jugadores" del gran mercado de las computadoras a la vez. Como resultado, aparecieron en el mercado servidores en serie relativamente económicos para satisfacción de los compradores. De hecho, es más fácil dividir los cálculos engorrosos en partes pequeñas y confiar la ejecución de cada una de esas partes a un procesador de producción masiva económico e independiente. Por ejemplo, ASCI Red de “Intel”, que hasta hace poco ocupaba la primera línea en la tabla TOP500 de las computadoras más rápidas del mundo, consta de 9632 procesadores Pentium convencionales. Otra ventaja importante de esta arquitectura es su escalabilidad: simplemente aumentando la cantidad de procesadores, puede aumentar el rendimiento del sistema. Es cierto, con algunas reservas: en primer lugar, con un aumento en la cantidad de nodos informáticos individuales, el rendimiento no crece en proporción directa, sino algo más lento, parte del tiempo se dedica inevitablemente a organizar la interacción de los procesadores entre sí, y en segundo lugar, la complejidad del software aumenta significativamente. Pero estos problemas se están resolviendo con éxito, y la idea misma de "computación paralela" se ha estado desarrollando durante más de una década. "A principios de los años noventa, surgió una nueva idea", escribe Yuri Revich en Izvestia, "que se denominó metacomputación o "computación distribuida". en un cuerpo común, pero representa Inicialmente, estaba destinado a combinar computadoras de diferentes niveles en un solo complejo informático, por ejemplo, el procesamiento preliminar de datos podría realizarse en una estación de trabajo de usuario, modelado básico - en una supercomputadora de canalización vectorial, resolviendo grandes sistemas de ecuaciones lineales - en un sistema masivamente paralelo, y visualización de los resultados - en una estación gráfica especial. Estaciones separadas conectadas por canales de comunicación de alta velocidad pueden ser del mismo rango, así es como la supercomputadora ASCI White de IBM, que ahora ocupa la primera línea en el TOP500, consta de 512 servidores RS / 6000 separados (la computadora que derrotó Kaspárov). Pero el alcance real de la idea de “distribución” adquirió con la expansión de Internet. Aunque los canales de comunicación entre nodos individuales en una red de este tipo difícilmente pueden llamarse de alta velocidad, por otro lado, la cantidad de nodos en sí se puede marcar en un número casi ilimitado: cualquier computadora en cualquier parte del mundo puede estar involucrada en realizar una tarea establecida en el extremo opuesto del globo. Por primera vez, el público en general comenzó a hablar de "computación distribuida" en relación con el fenomenal éxito de la búsqueda de civilizaciones extraterrestres de SETI@Home. 1,5 millones de voluntarios que gastan su dinero por la noche en electricidad para la noble causa de encontrar contacto con extraterrestres proporcionan una potencia informática de 8 Tflops, que está solo ligeramente por detrás del poseedor del récord: la mencionada supercomputadora ASCI White desarrolla una "velocidad" de 12 Tflops. Según el director del proyecto, David Anderson, "una sola supercomputadora de potencia equivalente a la de nuestro proyecto costaría 100 millones de dólares, y la creamos prácticamente de la nada". Colin Percival, un joven estudiante de matemáticas de los EE. UU., demostró con eficacia las posibilidades de la computación distribuida. Durante 2,5 años, con la ayuda de 1742 voluntarios de cincuenta países del mundo, estableció tres récords a la vez en una competencia específica, cuyo objetivo es determinar nuevos dígitos consecutivos del número "pi". Anteriormente, pudo calcular los cinco y los cuarenta billones de lugares decimales y, más recientemente, pudo determinar qué cifra está en la posición de los cuatrillones. El rendimiento de las supercomputadoras suele medirse y expresarse en operaciones de coma flotante por segundo (FLOPS). Esto se debe al hecho de que las tareas de modelado numérico, para las cuales se crean las supercomputadoras, en la mayoría de los casos requieren cálculos relacionados con números reales con un alto grado de precisión, y no con números enteros. Por lo tanto, para las supercomputadoras, no se aplica una medida de la velocidad de los sistemas informáticos convencionales: la cantidad de millones de operaciones por segundo (MIPS). A pesar de toda su ambigüedad y aproximación, la evaluación en fracasos facilita la comparación de los sistemas de supercomputadoras entre sí, con base en un criterio objetivo. Las primeras supercomputadoras tenían un rendimiento del orden de 1 kflops, es decir 1000 operaciones de punto flotante por segundo. La computadora CDC 6600, que tenía un rendimiento de 1 millón de flops (1 Mflops), fue creada en 1964. La marca de mil millones de flops (1 gigaflops) fue superada por la supercomputadora NEC SX-1 en 2 con una puntuación de 1983 Gflops. El límite de 1.3 billón de flops (1 Tflops) fue alcanzado en 1 por la supercomputadora ASCI Red. El hito de 1996 cuatrillón de flops (1 Petaflops) lo alcanzó en 1 la supercomputadora IBM Roadrunner. Se está trabajando para construir computadoras a exaescala capaces de realizar 2008 quintillón de operaciones de punto flotante por segundo para 2016. Autor: Musskiy S.A. Recomendamos artículos interesantes. sección La historia de la tecnología, la tecnología, los objetos que nos rodean.: ▪ LED Ver otros artículos sección La historia de la tecnología, la tecnología, los objetos que nos rodean.. Lee y escribe útil comentarios sobre este artículo. Últimas noticias de ciencia y tecnología, nueva electrónica: El ruido del tráfico retrasa el crecimiento de los polluelos
06.05.2024 Altavoz inalámbrico Samsung Music Frame HW-LS60D
06.05.2024 Una nueva forma de controlar y manipular señales ópticas
05.05.2024
Otras noticias interesantes: ▪ Piel electrónica con indicación LED ▪ El ojo biónico salva de la ceguera ▪ Monitor ASUS VA27Q de 278 pulgadas con una resolución de 2560x1440 píxeles ▪ Nueva suite de software para el diseño de aplicaciones de video digital Feed de noticias de ciencia y tecnología, nueva electrónica
Materiales interesantes de la Biblioteca Técnica Libre: ▪ Sección de la web Materiales electrotécnicos. Selección de artículos ▪ artículo de Stephen Fry. Aforismos famosos ▪ artículo ¿Qué chino se convirtió en afroamericano y luego en gitano? Respuesta detallada ▪ artículo Cenchrus ciliado. Leyendas, cultivo, métodos de aplicación. ▪ artículo Teoría: preamplificadores 3H. Enciclopedia de radioelectrónica e ingeniería eléctrica.
Deja tu comentario en este artículo: Todos los idiomas de esta página Hogar | Biblioteca | Artículos | Mapa del sitio | Revisiones del sitio www.diagrama.com.ua |