Imprimir
Inicio »Especiales, Ciencia y Tecnología  »

¿Supercomputadoras en Cuba?

| 70 |

Para cualquier persona no entendida en materia de ingeniería informática o ciencias de la computación, llegar a un centro de datos implica descubrir a cada paso un escenario diferente. Grandes servidores, centenares de cables y otra buena cantidad de pequeños bombillos parpadeantes componen el panorama de cualquiera de estos lugares. Allí, tanta tecnología desconocida soporta prestaciones cada vez más básicas e imprescindibles, pero también otras que surgen y abren horizontes para el desarrollo científico de cualquier país.

Entre ellas, la computación de alto desempeño (HPC por sus siglas en inglés) representa una de las herramientas más importantes para la ejecución de simulaciones matemáticas complejas. La investigación moderna depende casi en absoluto de estos sistemas, y áreas tan distintas como la biología, los materiales de la construcción, las telecomunicaciones, o aspectos tan cotidianos como el parte meteorológico, le deben muchos de sus últimos avances.

Aunque desde hace años científicos y centros de investigación de la Isla utilizan estas técnicas, ahora una novedosa iniciativa busca interconectar los tres grandes centros de datos existentes en la nación y ofrecer una capacidad de cálculo nunca antes vista en Cuba. Sustentado a partir de la colaboración con el Consejo Interuniversitario de Universidades Flamencas de Bélgica y amparado en el empleo del software libre, el proyecto HPC Cuba pretende incidir de manera directa en el perfeccionamiento de la ciencia en el país.

La computación de alto desempeño posibilita una alta capacidad de cálculo y análisis de datos. Foto: Malú Vilasa.

La computación de alto desempeño y el surgimiento de HPC Cuba

La computación de alto desempeño consiste en un conjunto de servidores que funcionan como una potente computadora, capaz de concentrar un gran volumen de cálculo y un elevado número de procesadores con grandes prestaciones de memoria RAM y almacenamiento. Estos sistemas permiten realizar millones de operaciones matemáticas o simulaciones muy complejas en un tiempo más corto que el empleado por los tradicionales ordenadores de escritorio, y por tanto disminuyen los tiempos de investigación.

“Con el HPC es posible terminar en pocos días o incluso horas una simulación que con ordenadores de escritorio o incluso con programas tradicionales demoraría más de una semana. Esto incide directamente en la velocidad de las investigaciones, pero también en la profundidad y en la cantidad de variables a analizar”, asegura Jorge Armando Portal Díaz, administrador de uno de los clústeres disponibles en el país

Según explica el joven ingeniero, estos sistemas utilizan técnicas como la Computación Paralela, una forma de cómputo capaz de dividir miles de cálculos en pequeños grupos y ejecutarlos de manera simultánea. Asimismo, las herramientas de big data permiten análisis de información imposibles con las bases de datos tradicionales, ayudan en la toma de decisiones y en la identificación de problemas. Sin embargo, a pesar de sus conocidas virtudes, estas prestaciones nunca dejaron de ser una tecnología de difícil acceso para los investigadores de la Isla.

El Dr. Héctor Cruz Enríquez, uno de los gestores de la novedosa iniciativa, recuerda cómo durante mucho tiempo las instituciones científicas cubanas debían administrar sus pequeños servidores para realizar los estudios, o incluso acceder a sistemas HPC ubicados en el extranjero si pretendían ejecutar simulaciones complejas o no poseían esa tecnología. “Esto traía una consecuente molestia con el ancho de banda y otras cuestiones organizativas o de permisos vinculados a la seguridad informática”, asegura.

Ante la situación, una alternativa estuvo en aprovechar las potencialidades instaladas y el desarrollo alcanzado por universidades nacionales y poner esas capacidades a disposición de la comunidad científica. Así surgió la idea de interconectar los campus ubicados en la Universidad de Ciencias Informáticas (UCI), la Universidad Central "Marta Abreu" de Las Villas (UCLV) y la Universidad de Oriente (UO) y crear un sistema integrado para el uso de esta tecnología.

“Lo novedoso del proyecto no radica tanto en el uso de una herramienta conocida por muchos investigadores, sino en la creación de una red nacional disponible para científicos de cualquier lugar del país. Asimismo, el considerable aumento de las capacidades instaladas, la incorporación de nuevos servicios como el big data y la utilización de equipamiento profesional para el cálculo o el almacenamiento de la información representan otras ventajas importantes”, aclara el Dr. Héctor Cruz.

Según dice el también Coordinador de la Red de Colaboración con las Universidades Flamencas de Bélgica, los primeros pasos del proyecto asociado a la computación de alto desempeño tomaron fuerza a partir del año 2011, sobre todo impulsados por la sólida relación de trabajo con la Universidad de Gante. De acuerdo al directivo, el primer paso en ese vínculo estuvo en reorganizar las capacidades existentes en los centros de educación superior, para luego comenzar en 2013 el proceso de transferencia tecnológica y la preparación de los investigadores cubanos sobre los modos de trabajar con los modernos equipamientos donados por el país europeo.

El Ing. Jorge Armando Portal Díaz es uno de los encargados de administrar el clúster de big data en la UCLV. Foto: Yunier Sifonte/Cubadebate

Mientras tanto, en la Universidad de Ciencias Informáticas y en la de Oriente ocurrió un proceso similar. De acuerdo al Dr. Fernando José Artigas Fuentes, Coordinador del Grupo HPC en la institución santiaguera, la computación de alto desempeño tuvo sus inicios allí en el año 2001 con tres pequeños equipos colocados en el Centro de Biofísica Médica. Luego llegaría otro para el Departamento de Química y más tarde, gracias también a la colaboración con Bélgica, lograron adquirir dos clústeres profesionales con una mayor capacidad de procesamiento.

Una vez consolidada esa primera etapa de transferencia tecnológica —tres caminos distintos que terminaron en un mismo punto— sobrevino un paso esencial: proponer la creación del proyecto HPC Cuba. La iniciativa estuvo amparada en el desarrollo conseguido por los especialistas cubanos en el manejo de esos sistemas, así como por aquella necesidad de llevar sus potencialidades a todos los investigadores de la Isla. Junto al asesor belga Dieter Roefs, la primera presentación oficial  de la idea tuvo lugar durante el Congreso Internacional Universidad 2016 y recibió una considerable aceptación.

A partir de ese momento, se fortaleció el trabajo conjunto y los vínculos entre las universidades para compartir las mejores experiencias. Además, junto a la idea de unir en un proyecto nacional a los tres centros de datos líderes en el manejo de esta tecnología, surgió también la posibilidad de incorporar otros organismos externos al Ministerio de Educación Superior.

Entre esas instituciones sumadas, el Grupo Empresarial BioCubaFarma representa la primera de las entidades vinculadas al proyecto. Con un sistema propio y grandes perspectivas de crecimiento para el actual año, el grupo mantiene una cooperación constante y recibe apoyo de especialistas de la UCLV, sobre todo en el manejo de la tecnología y en el asesoramiento para la instalación de nuevas aplicaciones. Su objetivo tampoco varía: apoyar con sus capacidades al desarrollo científico de la nación.

De hecho, según dijo a Granma el Ing. Karel Asael Barberena, especialista principal de la dirección de infocomunicaciones de la Empresa de Tecnologías de la Información (ETI) y líder del proyecto HPC en BioCubaFarma, uno de sus propósitos radica en “contribuir a la informatización de procesos que se reviertan luego en una utilidad, ya sea científica o social”.

Supercomputadoras cubanas de cara al futuro

Los equipos donados por el Consejo Interuniversitario de Universidades Flamencas de Bélgica posibilitaron el desarrollo de esta tecnología. Foto: Malú Vilasa

Aun con sus amplias prestaciones y su capacidad para garantizar estudios científicos más complejos y abarcadores, uno de los grandes problemas de estas supercomputadoras radica en el desconocimiento de su existencia por buena parte de la comunidad científica nacional. Proyecto novedoso al fin, todavía necesita irrumpir en el panorama investigativo del país y desterrar temores y complejidades de usuarios para acceder a sus servicios.

Así, el Ing. Ernesto Eduardo Díaz Conde, administrador de HPC en la Universidad de Oriente, reconoce la necesidad de continuar el trabajo para que más centros de investigación se acerquen a las supercomputadoras.  “Aunque logramos avances y el Instituto Metalúrgico de Moa y la Universidad de Ciego de Ávila resultan usuarios habituales, todavía quedan potencialidades por utilizar”.

En los clústeres ubicados en la UCLV ocurre algo parecido y solo los utilizaron alrededor de 36 centros científicos en el 2017, muy por debajo de la capacidad real. Asimismo, según los datos existentes en la página oficial de los servidores instalados en la UCI, su tecnología instalada generalmente tiene un uso entre un 65 y un 80 por ciento.

Para revertir esta situación —originada más por el desconocimiento que por el rechazo— los centros líderes articulan una estrategia enfocada cada vez más al trabajo conjunto. Unificar sus modos de hacer y crear las herramientas necesarias para lograr una efectiva relación entre las instituciones científicas de la nación y los centros de datos garantes de los servicios de computación de alto desempeño, resultan claves en ese propósito.

Para ello, por ejemplo, un pequeño equipo se encarga del desarrollo de aplicaciones y la puesta en marcha de un portal web nacional destinado a facilitar el acceso a los recursos de supercómputo de cualquiera de las instituciones asociadas al proyecto. Según el Lic. Victor Marrero Shimko, uno de los miembros de ese grupo, en la futura página cada usuario podrá elegir dónde realizar sus simulaciones, en dependencia de las características de la investigación, la necesidad de recursos informáticos o incluso el nivel de explotación de cada supercomputadora y el tiempo de espera necesario.

Para Marrero Shimko, esta resulta una herramienta imprescindible para organizar el proceso, gestionar con eficiencia todas las capacidades disponibles en el país y facilitarle el trabajo a los propios científicos.

"Parte esencial de nuestra función radica en instalar tecnologías que los usuarios no tienen necesariamente que conocer, porque no forman parte de sus campos de estudio. La interfaz web le ofrece una manera cómoda de correr sus cálculos sin preocuparse por esas aplicaciones y solo dedicar tiempo a definir el modo de ejecución y las variables a utilizar", aclara el joven graduado en Ciencias de la Computación.

Según dice, el portal debe quedar listo para mediados del actual año, aunque ello depende en gran medida del avance de otros grupos de trabajo como el encargado de las redes o el vinculado a la administración y puesta a punto de los servicios habilitados en cada clúster. No obstante, aclara que sí están disponibles portales locales encargados de gestionar el acceso a los servicios tanto en la UCLV como en la UO y la UCI.

"Una vez lista la interface, ahora trabajamos en establecer puntos en común entre los centros asociados a la iniciativa, sobre todo para definir los lenguajes, las tecnologías o las aplicaciones a emplear y lograr un homogeneidad en todos ellos. No obstante, es imprescindible lograr el empuje inicial y sumar desarrolladores para compartir códigos y avanzar a una velocidad mayor", agrega.

Los habituales contactos entre los grupos de trabajos encargados de los sistemas HPC contribuyen a avanzar hacia objetivos similares. Foto: Alejandro Peña/UO.

Por su parte, aun en su segundo año de adiestramiento, el Ing. Javier Antonio Ruiz Bosch es uno de los administradores del clúster de computación de alto desempeño en la UCLV. Vinculado a ese campo de estudio desde su etapa de estudiante de Ingeniería en Telecomunicaciones y Electrónica, el joven investigador reconoce las potencialidades de esta tecnología no solo para el desarrollo del país, sino también para la imprescindible autopreparación de los miembros del equipo.

“Más allá de los 80 nodos que ahora mismo tenemos en producción para la computación de alto desempeño y el big data, destinamos otros cuatro a la investigación y el desarrollo, y eso repercute en nuestra formación y en la realización de estudios para incidir en el manejo y los modos de trabajar con estos sistemas. Es algo así como una retroalimentación para mejorar siempre”, agrega.

Mientras tanto, el Dr. Fernando Artigas Fuentes, Coordinador del Grupo HPC en la Universidad de Oriente, reconoce la necesidad de ampliar los equipos de trabajo y potenciar la formación de nuevos especialistas en temas afines. “Pretendemos impartir un curso de Computación Paralela como parte de la Maestría en Ciencias de la Computación que acoge la universidad y seguimos otros procesos de capacitación para los especialistas interesados en el tema”, concluye.

Junto a la consolidación de iniciativas similares, el Dr. Hector Cruz enumera también otros desafíos importantes en el afán de llevar la computación de alto desempeño hasta la mayor parte de los centros científicos del país. Entre esos retos fundamentales, ubica la necesidad de aumentar la cultura de muchos investigadores en el uso de esta tecnología, "de forma tal que sean capaces de entender una amplia variedad de lenguajes de programación y adaptar los recursos disponibles a los objetivos de sus experimentos".

"Utilizar un sistema HPC implica necesariamente aplicar técnicas de Computación Paralela. Si eso no ocurre la simulación tardaría casi el mismo tiempo que si se realiza en una buena computadora de escritorio. Muchas veces encontramos usuarios ajenos a estos conceptos que dejan de recurrir a un servicio capaz de facilitarle mucho su estudio", explica.

Para enmendar esta situación, por ejemplo, los gestores de HPC Cuba abogan por insertar especialistas en el manejo de estos sistemas dentro de los grupos de investigación, de forma tal que puedan asesorarlos y explotar con eficiencia las capacidades de cálculo instaladas en el país. A su vez, pretenden consolidar programas de formación tanto a científicos como a graduados de carreras afines con la computación y la informática sobre el manejo y desarrollo de esta tecnología.

Asimismo, otros planes para los próximos meses radican en ampliar las capacidades de almacenamiento, facilitar los paquetes de instalación e incorporar nuevas aplicaciones para incrementar aun más las potencialidades de uso en diversos campos de la ciencia.

Con un buen camino recorrido, pero otro todavía mayor por desandar, la computación de alto desempeño gana espacio en el panorama científico de la nación y abre puertas a una tecnología imprescindible en el mundo contemporáneo. Más allá de un fin esencialmente académico, el uso de una herramienta como esta resulta vital para el fortalecimiento de nuestra estructura para la investigación.

Así, varias cuestiones parecen inalterables: un proyecto de este tipo le garantiza al país una necesaria soberanía tecnológica, mientras defiende conceptos como la democratización del acceso al desarrollo científico y permite la ejecución de estudios más competitivos y con un mayor valor agregado. El conocimiento de estos sistemas, la consolidación del vínculo entre los principales centros de datos, junto a la constante preparación de investigadores y administradores, resultan también puntos esenciales para que las supercomputadoras cubanas impacten con solidez en la producción científica nacional.

Se han publicado 70 comentarios



Este sitio se reserva el derecho de la publicación de los comentarios. No se harán visibles aquellos que sean denigrantes, ofensivos, difamatorios, que estén fuera de contexto o atenten contra la dignidad de una persona o grupo social. Recomendamos brevedad en sus planteamientos.

  • caravallio dijo:

    eh? y el bloqueo donde esta?

    • Yoli dijo:

      Donde siempre ha estado, o no leiste de donde vienen estos equipos?

      • alejandro dijo:

        ¿Vienen de Bélgica por culpa del bloqueo? Pensaba que era por una colaboración con el Consejo Interuniversitario de Universidades Flamencas de Bélgica.

        "Colaboración" no es más que un eufemismo...

    • UCLV_Manuel dijo:

      Tu puedes acceder al sitio de DELL desde Cuba? Al de Oracle? Al de las librerias de INTEL para procesamiento paralelo ?

      • Cuko el de los 300. dijo:

        si. usando VPN

    • Panchito dijo:

      Siempre existen esos que buscan la oscuridad como caravallio

    • dudacubana dijo:

      yo pense que eran maquinas Taino y no Dell yuma

      • Cuko el de los 300. dijo:

        no serán tainos. pero los conocimientos nadie nos los podrá bloquear

  • Hanoi dijo:

    Saludos,
    Se podria saber cuales son las especificaciones de estas supercomputadoras ?
    Gracias

    • L4R4_EstudianteUO dijo:

      En las paginas web de cada uno.

      • Realista dijo:

        Se supone que pongas los links hacia las páginas web...fffff

  • aliaris dijo:

    importante, muy importante, ya me preguntaba yo por donde andabamos en estos laures.

  • El_Isabelino dijo:

    Ese es el mundo actual y el futuro debe ser más exigente!!!

  • m&m dijo:

    Buen articulo, para hacer ver y poner en relieve los intentos de crear plataformas HPC sostenibles en el pais.

    El primer paso es que los investigadores y especialistas conozcan realmente las ventajas de la computación paralela y distribuida y como usarlas y donde acceder sistemas de mayor nivel disponibles para la investigación. El segundo es tener personal capacitado para hacer uso de las tecnologias paralelas y distribuidas, y ser capaces de "pensar en paralelo" que es muchas veces lo mas dificil, para luego diseñar los algoritmos y/o programar o configurar las aplicaciones a ejecutar.

    Si se desea obtener el mejor rendimiento por volumen y eficiencia energetica por capacidad de cómputo, estos clústeres deben estar basados en su mayor parte en GPUs, que aunque mas difiles de programar, con la herramientas adecuadas que provean abstracciones se les facilita la cosa a los que necesiten hacer uso de ello. 1 solo GPU moderno, de los mas potentes, puede dar mas rendiminto de cómputo en muchas tareas, que todo un armario llenos de blades basados solo en CPUs igual de modernos.

    Personalmente, todo mi código de procesamiento es basado en paralelismo en CPU y GPU, este ultimo fundamentalmente, programandolos directamente, con pocas abstracciones, para explotar al máximo las capacidades del hardware, empezando por la estación de trabajo, pues si no se empieza por ahi, por las PC que se tienen en los escritorios, se esta desperdiciando más capacidad de computo que toda la instalada en estos centros.

    Una lastima nuestras redes nacionales sean tan ineficientes e incapaces y tan pocos usuarios con algo de interrelación real, si no seria incluso mejor hacer proyectos de computacion distribuida, como Folding@Home o CETI@Home. Tantos CPUs y GPUs desperdiciados en el pais.

    • UCLV_Ernesto dijo:

      En la UCLV tenemos tarjetas NVIDIA específicas para esta tarea. Realmente se incrementa mucho el poder de cálculo.

      • m&m dijo:

        Los datos de la UCLV estan bastante correctos, solo tienen un error, los Xeon E5-2630 no tiene 8 nucleos tienen solo 6 habilitados, asi que el total en esa fila de la tabla es 12. Ampliar que los datos en FLOPS estan bien, pero se debe señalar que son en calculos de Doble Precisión, en simple precisión los valores picos teoricos de su sistema llega a 7.8TFLOSP en CPU y 17.5 TFLOPs en GPU. Es decir que en operaciones sin necesidad de tanta precision numerica, se obtiene el doble y mas del rendimiento, y si se usan las intrucciones correctas, los errores acumulados son despreciables.

    • yunier dijo:

      los gpus poseen un set limitido de intrucciones y se basan demasiado en el paralelismo por lo que son subóptimos en muchas tareas las cpu son mas de proposito general y poseen conjuntos de instrucciones más abarcadores...

      • m&m dijo:

        si yunier, es asi.
        Los CPU estan preparados para hacer rápido "pocas" tareas complejas, con mucho control de flujo y accesos aleatorios a memoria, para eso poseen hardware especializado para hacer predicciones, mucha mas cache etc.
        Los GPUs trabajan sobre muuuuuuchas tareas, mas simples sobre los mismos datos y de ser posible de manera coherente, con mas paralelismo, con datos menos dispersos, pero en muuucha mayor cantidad, los codigos complejos y bifurcados son muy malos para ellos y no poseen casi hardware dedicado ademas de menos cache.

        Pero los CPUs poseen unos pocos nucleos (ALUs, operacion escalares/vectoriales, pocos hilos) y el acceso a datos es menor. Por su parte, los GPUs modernos poseen miles de "nucleos" (ALUs, operacion escalar/cantidad de hilos masivas) y accesos masivos a memoria, aqui es donde se explota su arquitectura y tenemos en muchas tareas de computo resultados 100 y mas veces mas rapidos que con los CPUs mas potentes.

        Por eso en estos sistemas CPU+GPU, los CPUs controlan las operaciones y aportan algo de computo y el TRABAJO duro, es cosa de los GPUs u otros aceleradores que se usen, como cGPU, FPGAs, DSPs, etc

        Ademas no todas las tareas se pueden paralelizar, pero muchismas del campo de las ciencias si. y los GPUs son MASIVAMENTE paralelos. Hasta el GPU integrado con los procesadores INTEL y AMD, si se explotan bien, dan en esas tareas muuucho mas rendimiento que el CPU.

        Personalmente, uso OpenCL, y proceso con micros INTEL y AMD, gpus de AMD (discretos e integrados), NVIDIA e integrados de INTEL, incluso algunos codigo de prueba acelerado en los GPUs moviles, decenas de veces mas rapido que hacer el proceso en el CPU movil, aun en paralelo y vectorizado. En fin, el hardware que sea, mientras sea compatible, eso es aprovechar los equipos, darle el uso a los que se paga por ellos. Una ves fui a probar VCL para hacer un proceso distribuido, pero no llegue a ello, ayudaba bastante y relativamente simple, 4 PCs (con varios GPUs cada una) me aparecerian como un solo equipo.

  • Heydi dijo:

    Todo eso esta muy bien, para que conste la comunidad científica cubana sabe lo que es un super computador aunque la mayoría no tenemos acceso a esa tecnología. Lo mas importante no se menciona en el articulo, como puede cualquier centro de investigación del país no vinculado al ministerio de educación acceder para correr casos de estudios en esos clusters????cuales son los mecanismos para llegar esas herramientas????

    • Yunier Sifonte dijo:

      Heydi, gracias por leer. Por supuesto que la comunidad científica cubana está al tanto de la existencia de la computación de alto rendimiento. Como dice el texto, "desde hace años científicos y centros de investigación de la Isla utilizan estas técnicas". Sin embargo, los líderes del proyecto sí lamentan que muchos de ellos no conozcan la posibilidad que tienen de acceder a los servicios que brindan los centros de datos, disponibles para cualquier institución científica del país. Respecto al modo de acceder, el trabajo dice que los portales de cada universidad sí están disponibles, así que si tiene interés en utilizarlos puede llegar a ellos y solicitar una cuenta. Una sencilla búsqueda en Google la remitirá a cada uno de ellos. No obstante, aquí le dejo sus direcciones web: UCLV (https://www.uclv.hpc.cu/hpc-uclv/) y UO (http://hpc.uo.edu.cu/). Ojalá le sirva de ayuda. Gracias por comentar.

      • AlexJSK dijo:

        Hola, usted no refería el núcleo de la UCI, me interesaría saber cuáles son los motivos. Saludos

      • Yunier Sifonte dijo:

        AlexJSK, gracias por leer. De momento, el núcleo de la UCI no tiene un portal de acceso externo como los de la UO y la UCLV. No obstante, allí sí existe un grupo de investigación dedicado al tema y poco a poco se irán sumando al proyecto. Además, aun cuando lo intentamos en varias ocasiones, fue imposible establecer un contacto sólido con sus especialistas allá que pudieran aclararnos estos asuntos. Ellos quizás pudieran arrojar más luz sobre tu duda. Saludos y gracias por comentar.

    • cam dijo:

      hola, muy buen articulo, te comento que el acceso a estos equipos es muy complicado, pues requieren protocolos de conexión que están bloqueados (internamente, por absurdas políticas, echas por personas miedosas y desconocedoras), hasta que no terminen el famoso portal (cosa que no implica que funcione correctamente), pues tienes que pertenecer a la red interna, de la institución donde está ubicado el cluster y como alguien comento anteriormente, muchos CPUs y GPUs desperdiciados por restriciones tontas y no infraestructura.
      saludos

      • UCLV_Manuel dijo:

        cam. no se de que estes hablando pero estoy 100% seguro que no es del cluster de nuestro centro. todo el que ha deseado calcular aqui lo ha hecho sin problemas. el portal es para facilitarle el uso a las personas que no dominan el shell de linux, es un intento de crear una interfase mas amigable para muchos cientificos que hay en este pais que no tienen por que saber nada de linux o que no han tenido tiempo para aprenderlo porque gente inteligente por suerte tenemos mucha. deje de meter miedo sin saber de lo que está hablando.

      • UCLV_miriel dijo:

        Hola,
        Los clúster a los que se hace referencia en el artículo tienen acceso desde cualquier punto de internet. Desde ese punto de vista no tienen limitaciones de acceso. Es cierto, que uno de los grandes inconvenientes actuales es el bloqueo de los accesos SSH en muchas empresas. Por esta razón, se trabaja en un portal WEB al que se hace referencia en el artículo con varios objetivos, uno es salvar un poco las limitantes de acceso y el otro es acercar un poco más a los investigadores el uso de estas tecnologías, pues muchos necesitan resolver un problema científico, tienen un código con qué hacerlo, pero no saben casi nada de Linux y de HPC.

  • yasser dijo:

    Seria bueno que este tema llegue a lo mas alto, en empresas donde dan un soporte donde muchas veces la lentitud es insoportable a esto sumanle el deterioro en los cableados, una tegnologia no se basa solamente en tener una super computadora rapida si la utilizas local perfecto pero cuando das soporte a una plataforma donde acceden demas usuarios hace falta muchisimas cosas y no solamente la llegada de una gran pc, ETECSA UN EJEMPLO no vale que existan super pc y super servidores si las redes no estan bien configuradas la lentitud nos mata, en muchas empresas tienen medios de comunicacion entre ellas algunas pc con buen rendimiento y el cableado no sirve, la conexion mediante cables de cobre en una linea dedicada se corta, y por ultimo la seguridad es una cosa que nos golpea diario cuando se diga que tengo una super computadora es igual a Eficiente, Util

    • victor dijo:

      Que interesante el comentario de Yasser conocedor del tema pero que ridículos los de otros que hasta de esto que no conocen porque solo su cerebro da para la critica barata y no ven que importante es que contemos con esta tecnología a pesar que como dice Yasser no todos tienen capacidad de conexión por las propias comunicaciones para acceder con calidad pero de todas forman tienen la posibilidad y se desarrollan esos campos tan importantes como la cibernetica, la matematica y la biotecnologia

  • ricardo85 dijo:

    Un pasito palante 3 para atras

  • Jorge dijo:

    Muy buen artículo, sobre todo esclarecedor, tenía entendido que en el Centro de Ingeniería Genética y Biotecnología, existía un clúster con muy buenas prestaciones, al parecer todo era una leyenda urbana. El artículo ha suscitado dos dudas la primera es relacionada con la tecnología necesaria, la tecnología de Clustering, creo, que se basa en poner varias computadoras “ordinarias”, no supercomputadores, a funcionar como un solo supercomputador mediante el empleo de algo denominado middleware, algunos libres como el openMosix, por lo demás este tipo de supercomputadoras se ha estado empleando por mucho tiempo en otros lugares y con lo rápido del avance tecnológico en esta área me imagino que las PC que ahora mismo tenemos sean, por mucho, mejores que las empleadas en la formación de los primeros Clúster, es ese sentido la duda es: a qué refieren cuando dicen “[…] lograron adquirir dos clústeres profesionales con una mayor capacidad de procesamiento[..] ”, ¿no sirve los ordenadores de mesa para conformar un clúster aunque sea modesto…? Lo otro es si será un tipo de tecnología solo a emplear en las Universidades…?, porque el sector de los servicios, en algunos casos, las está pidiendo a gritos, un ejemplo de este reclamo en el VirtualBandec que es un muy apreciado servicio del Banco de Crédito y Comercio para la realización de las operaciones financieras vía Web, pero que colapsa cuando es sometido a la demanda de toda la nación en fechas pico, como a principios de mes cuando todas las empresas se proyectan por las operaciones de pago de salarios, pago de servicios y bienes contratados, aportes al presupuesto entre otras, en este caso un clúster podría asumir la carga sin colapsar evitando molestia a los clientes y eliminando las quejas por causa de los molestos “fuera de servicios” que da el sistema y sobre todo el abarrotamiento de personas que acuden a las sucursales bancarias a realizar sus operaciones, así como las multas de la ONAT por atraso en el pago de los aportes. Esta es solo una de los muchos ejemplos. Las supercomputadoras poseen algunas características que las hacen prácticamente inaccesibles a nuestro país, primero se utilizan para modelaciones relacionadas con la defensa, como de explosiones nucleares, su principal proveedor son empresas made in USA o muy dependientes de ese país y por último, aunque existen muchas más son extremadamente caras, pero son imprescindibles para lograr las prestaciones necesarias en la informatización de la sociedad, así que no queda de otra que, si no se pueden adquirir tendremos que lograr sus prestaciones de otro modo, esa es la importancia estratégica de los Clúster y la computación distribuida.

    • OGC dijo:

      Jorge no es una leyenda urbana. Existe ese cluster en el CIGB lo que la historia no esta bien contada del todo en el articulo. De hecho el cluster del CIGB fue el primer(2001)intento serio de HPC que brindaba servicios no solo a instituciones del Polo científico (Actual Biocubafarma) sino tambien a la universidad. en aquel momento contaba con 64 nodos (128 nucleos) cada uno con 2GB de RAM.

      • Yunier Sifonte dijo:

        OGC, gracias por leer. Esta historia está contada a partir de la experiencia de tres universidades cubanas, y por tanto sus inicios están en el momento en que comienzan a experimentar con la computación de alto desempeño. Por supuesto, ya en Cuba existían otras importantes instituciones científicas que poseían y brindaban estos servicios. Incluso algunas, como la que mencionas, realmente a la vanguardia y con experiencias importantes. Aun hoy muchas de ellas tienen e incrementan esta tecnología. Sin embargo, creo que este fragmento es importante: "Lo novedoso del proyecto no radica tanto en el uso de una herramienta conocida por muchos investigadores, sino en la creación de una red nacional disponible para científicos de cualquier lugar del país. Asimismo, el considerable aumento de las capacidades instaladas, la incorporación de nuevos servicios como el big data y la utilización de equipamiento profesional para el cálculo o el almacenamiento de la información representan otras ventajas importantes”. Gracias por comentar y aportar valiosa información. Saludos

  • Raul dijo:

    Muy interesante el articulo. Me pregunto si seria posible en este proyecto HPC Cuba habilitar cierta disponibilidad para aquellos que no pertenecen directamente al Polo Cientifico pero que son estudiosos e investigadores del BigData en varios campos de la Bioinformatica y el procesamiento de datos estadisticos . El futuro de nuestra ciencia en parte viene por ahi, BioCubafarma depende mucho de eso para sus resultados, tal es asi que ya se abrio una carrera de Bioinformatica en la UCI. Todos deberiamos tener acceso a estas facilidades.

    • UCLV_miriel dijo:

      Hola,
      El proyecto HPC-Cuba está abierto a la participación de todos investigadores y estudiantes necesitados de grandes prestaciones de cómputo. Solo debe acceder a sus páginas y solicitar el acceso.

  • Franklin Téllez Rodríguez dijo:

    Saludos a los pocos que comentaron, pues soy parte del equipo de administradores de red en el Centro de Datos de la Universidad de Oriente donde radica uno de 3 HPC, la realidad es que gracias al proyecto de cooperación inter-universitario VLIR-UOS de universidades flamencas de Bélgica no hubiese sido posible esta gran obra que se gesta entre nuestras universidades, según tengo entendido(yo no soy el especialista que atiende HPC) ahora solo queda que se sumen más usuarios que hagan uso de esta tecnología, ahora mismo funcionando. El HPC UO consta de dos clústeres HPC1 (4 nodos de cálculo, 256 procesadores, 256 GB RAM y 5 TB de almacenamiento) y HPC2 (16 nodos de cálculo, 512 procesadores, 1 TB RAM y 1 TB de almacenamiento). Con perspectivas a corto plazo de aumentar las capacidades.
    Para : m&m le comento que de los 3 nodos habilitados en nuestras universidades se potenció en la UCLV capacidades para hacer cálculos con GPUs de las más modernas que hay en el mundo, así que si es investigador de algún centro y tiene necesidad de hacer uso de los recursos de la red HPC -Cuba, recomiendo que se ponga en contacto con el centro de datos en su caso con los de la UCLV. En toda la red contamos con personal altamente preparado dispuestos a ayudar desinteresadamente a todo aquel que necesite usar estos recursos para bien del desarrollo del país.

    • m&m dijo:

      saludos,
      que GPUs estan empleando?
      Son correctos los numeros "4 nodos 256 procesadores "16 nodos 512 procesadores"? Que califican como un NODO, un blade (computadora) o un rack completo? porque si es es un blade, en ninguno caben 32 procesadores, pueden ser 32 nucleos en total, digamos que en 4 Xeones de 8 nucleos. Si es un rack completo, igual, pero menor densidad. Recomiendo que se dé mejor el numero, se refiere a cantidad de CPUs individuales o cantidad de NUCLEOS totales.
      Y en estos sistemas distribuiods, es vital la comunicacion entre nodos, ese es el cuello de botella, lo que limita el potencial de uso maximo.
      Otra cosa importante es que a estos sistemas hay que darles explotacion maxima e intensiva, explotacion para lo que sirven y que los resultados sean aplicados, si no es un gasto, desperdicio. La cosa no es tanto hacerlos, conectarlos, si no planificar bien la escala, segun el uso y aplicacion real. Las carrera de supercomputadoras esta caliente en el mundo, lo que hay no da abasto y se esta invirtiendo FUERTE. Aqui no podemos darnos el lujo de gastar 1$ que no se le saque mucho mas.
      Articulos como estos le dan nivel de visibilidad, para que las instituciones, equipos , investigadores conozcan de que disponemos y darles uso REAL. El escalado se va luego planificando, si no todo sera por gusto.
      Y finalmente, primero hay que aprender a explotar completamente el hardware que tenemos a nuestro lado, pues pocos desarrolladores y menos investigadores conocen as tecnologias y/o herramientas que les permiten empezar a sacarle al hardware lo que vale. Los desarrolladores son vagos, el hardware es cada vez mas rapido y el software lo hacen cada vez mas lento. Ejemplo, cuantos usan MATLAB en operaciones que se les demoran buen tiempo, y no saben que pueden emplearlo distribuido entre varias PCs, usar todo lo que se pueda de sus capaciddaes de computo y segun el tipo de trabajo, sin pasar todavia a un sistema de mayor nivel.

      • Franklin Téllez Rodríguez dijo:

        Saludos nuevamente, pues decirle que si la información si es la correcta, 11 años de experiencia en estos temas quizás sea poco para algunos, pero al menos es suficiente para dar una información correctamente, si continúan con lagunas en el tema pueden escribir a hpc@uo.edu.cu donde les atenderá directamente la persona que administra este servicio, que es uno de los tantos servicios alojados en el centro de datos de la Universidad de Oriente. Entendemos que si usted está en un empresa u organismo ...en fin red que no esté vinculada a la red del MES no tendrá acceso al portal por un tema de seguridad informática, puesto que para trabajar con HPC y tecnologías de este tipo hay que abrir conexiones a la red a través de un shell, cosa que está limitada por el momento, pero ya hay avances pues como dice el artículo se está trabajando en una web donde se gestione todo desde la web, cosa que permitiría abrirnos más a empresas, ect, hay varias estrategias..... cualquier duda comuníquense a este correo. Al menos ahora ya hay información de que está disponible el servicio, solo queda que se acerque al grupo todo aquel que esté interesado en hacer uso de cualquiera de nuestros clústers.

      • m&m dijo:

        Franklin, mirando los datos en la pagina y mirando el video, siguen sin cuadrar. Si lo que se ve en la foto y los videos, es por ejemplo el HPC1,veo 4 unidades 4U, serian esos los nodos entonces, y seria a "64 procesadores por nodo"". No existe ningun servidor con 64 CPUs y no cabria en una unidad 4U, bueno, por ahora, si despues se hacen mas chiquiticos...... Puede ser un sistema con 4 CPUs Xeon, E7-8867v3, E7-8860v3, E5-2698v3, E5-2697v3, E5-2697Av4, Gold 6130, Gold 6142, Platinum 8153, pero asi y todo,pocos sistemas hay con 4 procesadores, la mayoria son de 2 y muchos de estos micros estan diseñado solo para sistemas de 2 procesadores. Hay sistemas muy densos en 7U con hasta 8 sockets, pero no veo algo asi en el video, a menos que sea lo que esta debajo de las 4 unidaes 4U. En este caso los micros deben ser de 28 nucleos y deberian ser de los Xeon Platinum 8173//76 o 8176/80, pero eso dudo que los belgas los esten regalando asi, habria mas dinero alli en esos racks que en las arcas del Banco Central ;-).

        O que sean solo 2 de los ultimos AMD Epyc 7601, 7551 o 7501, de 32 nucleos (varios CPUs en un solo paquete, como los Gold y Platinum de INTEL )

        Ah! y el SMT de los cpus no se cuenta, son nucleos fisicos, reales, las unidades FP y AVX se comparten muy poco entre hilos, de todas maneras nunca se cuenta eso. En fin, creo que deberian ser mas explicitos y precisos en los datos para estimar las potencialidades teoricas de cómputo del equipamiento, fijense en como lo dan la UCLV

        Los datos de la UCLV estan bastante correctos, solo tienen un error, los Xeon E5-2630 no tiene 8 nucleos tienen solo 6 habilitados, asi que el total en esa fila de la tabla es 12. Ampliar que los datos en FLOPS estan bien, pero se debe señalar que son en calculos de Doble Precisión, en simple precisión los valores picos teoricos de su sistema llega a 7.8TFLOSP en CPU y 17.5 TFLOPs en GPU. Es decir que en operaciones sin necesidad de tanta precision numerica, se obtiene el doble y mas del rendimiento, y si se usan las intrucciones correctas, los errores acumulados son despreciables.

        A los lectores:

        GFLOP-miles de millones (Giga) de instrucciones de punto flotante por segundo. usualmente en los grandes computadores se dan en calculo de doble precision, muy usado en tareas cientificas, pero actualmente se pueden hacer muchas cosas muy bien con menos presicion, incluso las operaciones en el boon de redes neurales, 1/4 de precision es suficiente y a veces hasta 1/8

        Se dice pico teorico porque es lo que dan los numeros por lo que puede hacer cada parte del hardware, lo que dice el papel, el pico real sostenido solo se puede ver en operaciones reales (que tampoco tiene por que explotar completamente) o pruebas de rendimiento bruto como LINPACK o LAPACK.

  • Fs7 dijo:

    Muy interesante el artículo. Solo queda que los investigadores conozcan de este avance y se apoyen en ello para sus investigaciones. Realmente hay mucho de que agradecer a los belgas que han sido los que han dado un adelantón a los procesos investigativos en este país si en temas de desarrollo y tecnología se trata. Agradezco al periodista y al colectivo de cubadebate por mantenernos actualizados y mostrar nuestros pilares.

  • Alexis dijo:

    Tenía entendido que con la creación de esos centros de datos, la división que existen entre las redes de cuba terminarían, por ejemplo desde RIMED que es la red del Ministerio de Educación no hay un acceso pleno a INFOMED, la red de salud pública, en la red de los Joven Club sucede igual, cada administrador pone las reglas que estime conveniente, quisiera desde un joven club del país o desde una computadora conectada a INFOMED revisar mi correo institucional de RIMED, eso es imposible aun, en un futuro será posible o seguiremos cada cual por su lado sin una verdadera integración en casa?

  • Preocupado dijo:

    TENGO UNA DUDA CUANDO VAN A PONER UNA DE ESTAS EN LOS SERVIDORES DE CUBACEL A VER SI NO SE SATURA LA RED A FIN DE AÑO.

  • erratico dijo:

    Me siento halagado al ver a mis compañeros por donde andan, mi profe de fisica Karel "super rectisimo", pero super competente, habil e inteligente por demas. Uno de los que me enseño a ver la fisica mas facil, y por otro lado reconocer en la foto a un amigo de verdad el compañero carlitos de mi tierra santiaguera y del IPU Rafael Maria de Mendive , me hace sentir mas orgulloso. Ahora bien lo unico que no me gusto de esta noticia, es que es muy sensacionalista. La UCI y en especial mi Fac 6 en los años que estudie alli 2004-2009 fue pionera en este campo, los profes longendri, noel, trujillo y otros incluidos alumnos hoy doctores, verdaderos pioneros en temas de redes neuronales y programacion multihilos cuando de esto nadie o pocos conocian una J. saludos y viva la UCI; siempre a la vangauardia como soño Fidel. Tus profesionales como siempre, aportandola donde quiera que esten.

    • cesar dijo:

      erratico, quizas fuimos compañeros de clases, un saludo para tí... estoy de acuerdo contigo en que esta noticia le faltó profundidad, como bien dices, cuando fuimos estudiantes de la Fac 6, esos profesores y otros estudiantes participaron en proyectos de investigación de infraestructuras GRID y como conectar por internet varios sistemas de cómputo de una forma segura usando middleware como Globus y gLite.... me acuerdo que la aisgnatura de P4 (compilación) se tocaba en pregrado estos temas de forma muy básica, y además existía un curso optativo en la carrera con esta temática... de hecho la Fac 6 contaba con un pequeño cluster dedicado tipo Beowulf, y además se desarrollo otras alternativas de cómputo como un sistema distribuido.... saludos

      • erratico dijo:

        Si Dr. Cesar claro que fuimos compañeros, bastante pelota y futbol que jugamos, pero por un problema de privacidad, no me gusta revelar mi identidad en los sitios de debate, saludos, y cuidate, en mi comentario cuando mencionaba a los alumnos tu nombre fue unos de los primeros que me vino a la cabeza por lo que representas y lo que representabas en nuestra facultad, aunque no te imaginas quien soy te dire que somos muy buenos amigos, yo era del 6104, stgo de cuba, con eso te lo digo todo, saludos hermano, cuidate.

    • informatico 6 dijo:

      Bueno, pues la facultad 6 (ahora Facultad de Ciencias y Tecnologías Computacionales CITEC) sigue a la vanguardia en estos temas, la otrara línea de bioinformática se ha convertido en un Respetado Centro de Etudios de Matemática Computacional de la facultad y la universidad en general, y por supueto son quienes velan en la UCI por el proyecto HCP

  • erg dijo:

    En la UO se le esta dadndo un buen uso, y el tiempo de calculo y modelación se reduce mucho, antes habia que dejar la maquina encendida 3 o 4 días ahora en solo 24 h o menos los realiza!!!!!.
    Felicidades a la #70UO!!!!!!!

  • Alfredo Blanco dijo:

    muy interesante el artículo sobre la super computadora cubana y las posibilidades que ofrece dicho sistema, lo cual demuestra que si se puede pese al bloqueo económico de los EE:UU

  • Andrews dijo:

    "(...)Para revertir esta situación —originada más por el desconocimiento que por el rechazo— los centros líderes articulan una estrategia enfocada cada vez más al trabajo conjunto. Unificar sus modos de hacer(...)". Peligro a la vista, gigantismo, concentracion de una sola forma de hacer las cosas y bloqueo o paralisis del sistema por penetracion o facilidad economica para gestionar "el gran mastodonte".

    • UCLV_Wilder dijo:

      Pues yo lo leo como colaboración y aprovechamiento de las experiencias de los demás.

  • Armando Estevez dijo:

    HPC tiene muchas aplciaciones en el entorno académico y empresarial. La unión cubapetróleo acaba de poner en servicio un Clúster de servidores HPC dedicado al procesamiento sísmico y quisiéramos invitar a los autores del artículo a visitarlo e iniciar una posible colaboración.

  • Lina dijo:

    Felicidades a todos los involucrados por el trabajo y esfuerzo y el agradecimiento al Consejo Interuniversitario de Universidades Flamencas de Bélgica que han donado conocimiento, amistad y fondos para el desarrollo de la ciencia en Cuba a través de varios proyectos en nuestras universidades.

    • strepteccocus dijo:

      me parece perfecto el uso de las hpc para la investigacion cientifica pero personalmente
      me gustaria minar criptomonedas con ese equipo sobre todos las que se minan con gpu

  • Jose Angel dijo:

    Felicito al equipo de HPC de la Universidad de Oriente por el buen trabajo que realizan, en conjunto con los de otras universidades del pais.

  • Eddy.SS dijo:

    Muy alentador lo del proyecto de integración de datos digitales en Cuba como forma de integración del conocimiento científico de los diferentes sectores del conocimiento humano.

    No hay que disponer de la Internet si contamos con una potente intranet, despejada de la chatarra que circula en el mundo donde desde un celular, cualquiera publica y desvirtúa el conocimiento científico con un comentario vulgar y solo los entendidos pueden apartarse del señuelo.

    Esta vinculación de nuestras universidades es de elevada responsabilidad no solo científica, sino ética y cívica

    La comunidad de intelectuales y eruditos en Cuba tienen potenciales y faltan los medios integradores, es decir, están carentes de un canal de comunicación, imprescindible paso a seguir después de integrar grandes nodos operacionales, que se conviertan en el centro neurálgico de la gestión del conocimiento humano, y en gran medida la sustitución del esfuerzo mental ayudado por complejos algoritmos de inteligencia artificial.

    El gran riesgo de no tomar este camino, como alternativa a la gobernanza de internet, es que no podremos estar libre del dogma desvirtuador de lo efímero, coloquial, banal o vulgar; que solo sirve para mantener al individuo en un emporio de enajenación de las manipuladoras modas, los estándares visuales y los patrones de conducta inculcado de culturas ajenas.

    En lo que no concuerdo con este artículo es que se entienda que se desconozca por dónde va el mundo y por donde andamos nosotros. Nuestros científicos están informados, incluso el vulgo, pero no tienen medios para demostrarlo, de lo cual no podemos culparnos, pues este es un claro intento de no quedarnos en el olvido.

    Se dice: "un proyecto de este tipo le garantiza al país una necesaria soberanía tecnológica," pero considero que la verdadera independencia tecnológica nunca ha existido ni existirá jamás en un mundo globalizado, ello implicaría la capacidad investigativa, desarrollo y fabricación de medios que permitan la reposición tecnológica, de elevada integración a las tecnologías de punta y competir no solo con los gigantes del software, sino lo que más dependencia funcional nos ocasiona y es sustento del cacareado Bloqueo con el que pretenden extirparnos el conocimiento, la fabricación del hardware.

    De hecho, gracias a los belgas, que no quieren que se siga desperdiciando tanto conocimiento humano acumulado en nuestros científicos, creados bajo un sistema de educación gratuita y de alcance universal, donde el único aval es el talento y el empeño individual.

    El conocimiento colectivo desprendido de dogmas y prejuicios tiene un potencial incalculable en un entorno multifuncional de verdadera soberanía tecnológica en el campo de las ideas, porque las mentes más brillantes son aquellas que pueden hacer útil su conocimiento a los demás.

    • Lino dijo:

      Un poco estrecho el criterio expresado en su párrafo:
      No hay que disponer de la Internet si contamos con una potente intranet, despejada de la chatarra que circula en el mundo donde desde un celular, cualquiera publica y desvirtúa el conocimiento científico con un comentario vulgar y solo los entendidos pueden apartarse del señuelo.

  • Hector dijo:

    Interesante :-) 5 ptos para este articulo. Me gusta mucho. Saludos.

  • meryrf dijo:

    Felicidades Sifonte por tu excelente artículo. Gracias a las Universidades Flamencas por donar este importante equipamiento para nuestras universidades. Exitos para todas las personas que tienen la posibilidad de trabajar con tan importante equipamiento en la UCLV. Meryuclv

  • Pastor dijo:

    Si hay supercríticos entonces es porque cabalgamos... adelante la comunidad científica cubana.

  • CarlosCO dijo:

    De este tema de las computadoras y el lenguaje técnico que emplean los entendidos en el tema me falta mucho por aprender, uniendo esta información a la que se publicó hace unos dias de las monedas virtuales como el Petro de Venezuela ; pregunto:
    ¿ puede Cuba incursionar con estos nuevos equipos de computo en el uso de este tipo de moneda para evadir el bloqueo y eliminar la doble moneda de CUC u CUP?

  • UO_Eduardo dijo:

    Aca tienen un material adicional especificamente sobre el centro de datos de la Universidad de Oriente donde se encuentra el HPC_UO.

    https://www.youtube.com/watch?v=rtRv6WtPnvU

  • dgc dijo:

    Hola, Saludos, soy surdo, sordo y manco en el conocimiento de la informática, tendo un sobrino graduado de la UCI y uni hijo en 4to año, pero el escrito es para los informáticos, sean ingenieros o Licenciados, no entendí ni papa. Pero, ¿se cayeron de la cama ahora o es que yo estoy leyendo libros viejos?, porque ya en las películas de la Guerra de las Galaxias en el año 1977, en todas las naves, en las de los buenos y en las de los malos, se veían las supercomputadoras, que se comunicaban de una galaxia a otra. BUeno ciencia ficción !no!, que yo tengo entendido hace ya muchos años en un país lejano se están usando las supercomputadora, a las cuales les pide el nombre del que barre la calle en Hong Kon y te lo dice, sinceramente me siento orgulloso que estas realidades estén llegando a Cuba ahora, como dice el dicho, - es mejor tarde que nunca-, para burlar el bloqueo y el atraso tecnológico que tenemos. GRacias.

  • [AYAX] dijo:

    Voy a sacar un tiempo de maquina en uno de estos superordenadores para minear bitcoins!!!

  • UCLV_Javier dijo:

    m&m existen varios tipos procesadores Intel® Xeon® E5-2630. En dependencia de la generación son nombrados de la siguiente forma:
    Procesador Intel® Xeon® E5-2630
    Procesador Intel® Xeon® E5-2630 v2
    Procesador Intel® Xeon® E5-2630 v3
    El nodo gpu de nuestra universidad utiliza 2 procesadores Intel® Xeon® E5-2630 v3 tal y como dice la wiki. Si buscas en el sito de Intel veras que los V3 si poseen 8 núcleos físicos por procesador. Creo que en la búsqueda que hiciste omitiste el v3 por lo que te salió los procesadores E5-2630 Sandy Bridge de 6 núcleos o el E5-2630 v2 Ivy Birdge también de 6 núcleos. El nuestros es v3 (Haswell) que si tiene los 8 núcleos. Aquí te muestro la salida de lscpu para que verifiques y te rectifiques.
    [root@nodogpu01 ~]# lscpu
    Architecture: x86_64
    CPU op-mode(s): 32-bit, 64-bit
    Byte Order: Little Endian
    CPU(s): 16
    On-line CPU(s) list: 0-15
    Thread(s) per core: 1
    Core(s) per socket: 8
    Socket(s): 2
    NUMA node(s): 2
    Vendor ID: GenuineIntel
    CPU family: 6
    Model: 63
    Model name: Intel(R) Xeon(R) CPU E5-2630 v3 @ 2.40GHz
    Stepping: 2
    CPU MHz: 1200.093
    CPU max MHz: 3200.0000
    CPU min MHz: 1200.0000
    BogoMIPS: 4799.83
    Virtualization: VT-x
    L1d cache: 32K
    L1i cache: 32K
    L2 cache: 256K
    L3 cache: 20480K
    NUMA node0 CPU(s): 0,2,4,6,8,10,12,14
    NUMA node1 CPU(s): 1,3,5,7,9,11,13,15
    Flags: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx pdpe1gb rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf eagerfpu pni pclmulqdq dtes64 monitor ds_cpl vmx smx est tm2 ssse3 fma cx16 xtpr pdcm pcid dca sse4_1 sse4_2 x2apic movbe popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm abm epb tpr_shadow vnmi flexpriority ept vpid fsgsbase tsc_adjust bmi1 avx2 smep bmi2 erms invpcid cqm xsaveopt cqm_llc cqm_occup_llc dtherm ida arat pln pts

    Esos datos los actualice yo personalmente en la wiki. Quizás existan algunos errores, pero no creo que ese sea uno de ellos.
    Saludos.

    • m&m dijo:

      Cierto, por lo visto me salte ese o mire la fila errada en la tabla, error mio.
      Por esos datos, parece que tienen desabilitado el SMT en esos micros, no?
      Aun les recomiendo poner tambien la potencia teorica en computo de precision simple.

      Espero que los compañeros de santiago pongan mejor sus datos, como los tienen ustedes

      Finalmente, si algun ha hecho un prueba de las estandarizadas, de rendimiento pico real alcanzado por el sistema, seria interesante. Esos son los numeros que avalan mas al sistema.

    • m&m dijo:

      es que en la pagina sobre su HPC dice en la tabla
      "DELL R720 1 2 x Intel Xeon E5-2630 (Sandy Bridge-EP)"
      ese si tiene 6 nucleos, http://ark.intel.com/products/64593

Se han publicado 70 comentarios



Este sitio se reserva el derecho de la publicación de los comentarios. No se harán visibles aquellos que sean denigrantes, ofensivos, difamatorios, que estén fuera de contexto o atenten contra la dignidad de una persona o grupo social. Recomendamos brevedad en sus planteamientos.

Yunier Javier Sifonte Díaz

Yunier Javier Sifonte Díaz

Graduado de Periodismo en la Universidad Central "Marta Abreu" de Las Villas en el año 2016. Periodista de Telecubanacán. Colaborador de Cubadebate. En Twitter: @yunier_sifonte

Vea también