Pese a los avances en la tecnología Wi-Fi y la reciente introducción de Wi-Fi seis, Ethernet prosigue siendo la tecnología preferida que usan las compañías cuando precisan desplazar grandes cantidades de datos de manera rápida, singularmente en centros de datos. Aunque la tecnología tras Ethernet tiene ahora más de cuarenta años, durante los años se han desarrollado nuevos protocolos que dejan mandar aun más gigas de datos.

Para conseguir más información sobre las últimas tecnologías, protocolos, avances y el futuro de Gigabit Ethernet y quizá aun un día pronto Terabit Ethernet, LaComparacion Pro charló con Tim Klein, CEO de la compañía de conectividad de almacenaje ATTO.

Ethernet se introdujo por vez primera en mil novecientos ochenta, ¿de qué manera ha evolucionado la tecnología desde ese momento y dónde encaja en el centro de datos actual?

Ahora, con más de 4 décadas de antigüedad, la tecnología Ethernet ha efectuado esenciales mejoras, mas asimismo existen muchas cosas que se ven precisamente como eran cuando se introdujeron por vez primera. Originalmente desarrollado a fin de que los científicos compartiesen pequeños bultos de datos a diez megabits por segundo (Mbps), ahora vemos centros de datos gigantes que comparten conjuntos masivos de datos no estructurados por medio de redes Ethernet, y una plan de actuación que va a llegar a Terabit Ethernet en solo unos pocos años. .

El desarrollo exponencial de los datos, impulsado por nuevos formatos como las imágenes digitales, produjo una enorme demanda y estas primeras implementaciones de almacenaje compartido por medio de Ethernet no pudieron satisfacer las necesidades de desempeño ni manejar la congestión con latencia determinista. Como resultado, los protocolos como Fibre Channel se han desarrollado particularmente para el almacenaje. Durante los años, se han introducido múltiples innovaciones, como descargas inteligentes y RDMA, a fin de que Ethernet pueda satisfacer las demandas de datos no estructurados y superar el punto fallecido que puede surgir cuando se trasfieren grandes conjuntos de datos. Los últimos estándares de Ethernet de gran velocidad, como 10/25/40/50 / 100GbE, son ahora la columna vertebral del centro de datos moderno.

(Crédito de la imagen: Pixabay)

Las aplicaciones actuales demandan un desempeño cada vez mayor. ¿Cuáles son los retos de configurar protocolos más veloces? ¿Puede el software asistir acá?

El ajuste es exageradamente esencial en estos días debido a la demanda de un mayor desempeño. Cada sistema, así sea un cliente del servicio o bien un servidor, debe amoldarse a los requisitos de cada flujo de trabajo concreto. La enorme cantidad de protocolos para compartir ficheros y requisitos de flujo de trabajo puede resultar apabullante. Anteriormente, posiblemente haya admitido que la mitad de su ancho de banda fue destruido por la sobrecarga con incidentes y pérdida de bultos que lo ralentizaron a un ritmo mareante.

En nuestros días, existen múltiples métodos para optimar el desempeño y ajustar los adaptadores Ethernet para cargas de trabajo muy intensivas. Los controladores de hardware ahora vienen con algoritmos integrados que mejoran la eficacia, los motores de descarga TCP dismuyen la sobrecarga de la pila de red. La descarga de recepción grande (LRO) y la descarga de segmentación de TCP (TSO) asimismo se pueden incorporar en hardware y software para facilitar la trasferencia de grandes volúmenes de datos no estructurados. La adición de búferes, como una cola de recepción continua, acelera la entrega de bultos, aumenta la equidad y mejora el desempeño. Las tecnologías más nuevas, como RDMA, dejan el acceso directo a la memoria al pasar por alto la pila de red del sistema operativo y suprimir virtualmente la sobrecarga.

¿Qué impulsa la adopción de interfaces 10/25/50 / 100GbE?

La demanda de soluciones de almacenaje más grandes y eficaces y el entusiasmo por las nuevas tecnologías Ethernet como RDMA y NVMe-over-Fabrics impulsan la adopción de Ethernet de gran velocidad en los centros de datos modernos. diez Gigabit Ethernet (10GbE) es ahora la interconexión dominante para los adaptadores de clase de servidor, y 40GbE se introdujo de manera rápida para ampliar los límites al conjuntar 4 carriles de tráfico de 10GbE. Esto ocasionalmente evolucionó cara el estándar 25/50 / 100GbE que emplea carriles de veinticinco Gigabit. Las redes ahora emplean una combinación de todas y cada una de las velocidades de 10/25/40/50/cien GbE, con 100 GbE en el núcleo, cincuenta y veinticinco GbE en el borde.

La capacidad de entremezclar y conjuntar velocidades, diseñar sendas para darles toda la potencia que precisan y compensar el centro de datos desde el núcleo hasta el borde, lleva a la veloz adopción del estándar veinticinco / 50/100 GbE. Nuevas tecnologías como RDMA abren nuevas ocasiones a fin de que las compañías utilicen adaptadores de red y almacenaje conectado a la red (NAS) con latencia determinista para manejar cargas de trabajo que anteriormente debían ser efectuadas por redes de computadoras. Almacenaje más costoso (SAN) utilizando fibra. Adaptadores de canal que requieren asistencia más especializada. Más últimamente, vemos NVMe-Over-Fabrics, que usa el transporte RDMA para compartir tecnología NVMe de vanguardia en una estructura de almacenaje. Las tarjetas de red de cien GbE con RDMA abrieron la puerta al tejido de almacenaje NVMe que consigue el desempeño más veloz del mercado actual. Estos niveles de velocidad y fiabilidad anteriormente impensables dejan a las compañías hacer más con sus datos que jamás.

¿Qué es RDMA y de qué manera afecta a la tecnología Ethernet?

El acceso directo a memoria recóndita (RDMA) deja que los adaptadores de red inteligentes accedan a la memoria de forma directa desde otro sistema sin pasar por el procedimiento TCP tradicional y sin intervención de la CPU. Las trasferencias tradicionales dependían de la pila de red del sistema operativo (TCP / IP) para comunicarse, lo que ocasionaba una sobrecarga masiva, lo que resultaba en una pérdida de desempeño y limitaba lo que era posible con Ethernet y el almacenaje. RDMA ahora deja trasferencias sin pérdidas que virtualmente suprimen la sobrecarga con un incremento masivo en la eficacia al ahorrar ciclos de CPU. El desempeño aumenta y la latencia se reduce, lo que deja a las organizaciones hacer más con menos. RDMA es en verdad una extensión de DMA (acceso directo a memoria) y omite la CPU para permitir operaciones de «copia cero». Estas tecnologías han sido una parte integral del almacenaje de canal de fibra a lo largo de muchos años. Esta latencia determinista que transformó al Fibre Channel en la primera opción para las compañías y las cargas de trabajo pesadas ahora está libre con Ethernet, lo que facilita que las organizaciones de todos y cada uno de los tamaños aprovechen el almacenaje compartido de gama alta.

¿De qué manera se integra NVMe?

Donde NVMe se integra con Ethernet es a través del protocolo NVMe-over-Fabrics. Es sencillamente la manera más veloz de trasferir ficheros por medio de Ethernet hoy en día. El propio NVMe fue desarrollado para aprovechar los SSD modernos y el almacenaje flash a través de la actualización de los protocolos SATA / SAS. NVMe sube el listón todavía más al aprovechar la capacidad de la memoria no volátil para operar paralelamente. Puesto que NVMe es una tecnología de almacenaje de conexión directa, el próximo paso cara el almacenaje compartido es donde entra en juego Ethernet o bien Fibre Channel: llevar NVMe a una estructura de almacenaje compartido.

RAM

(Crédito de la imagen: Gorodenkoff / Shutterstock)

¿Cuáles son los requisitos de Ethernet para tecnologías de almacenaje como disco RAM y almacenaje inteligente?

Las NIC inteligentes son un término parcialmente nuevo para la capacidad de los controladores de red para manejar operaciones que anteriormente eran la carga de un procesador. La descarga del procesador del sistema mejora la eficacia general. Llevando este término todavía más lejos, los fabricantes de tarjetas de red ofrecen tecnología FPGA (Field Programmable Gate Array) que deja la funcionalidad concreta de la aplicación, incluyendo la descarga de datos y la aceleración, que se pueden desarrollar y codificar en la FPGA. Reposar en la capa de hardware hace que estas tarjetas de red sean impresionantemente veloces con un enorme potencial en el futuro para añadir más innovaciones a esta capa.

Disk RAM Smart Storage avanza en esta área con la integración de hardware de aceleración de datos en dispositivos de almacenaje que emplean memoria RAM volátil (que es más veloz que la memoria no volátil que se emplea en los dispositivos NVMe hoy en día). Esto se traduce en un almacenaje impresionantemente veloz con la capacidad de optimar las cargas de trabajo pesadas.

La combinación de almacenaje RAM ultrarrápido, supervisor NIC integrado y FPGA con descargas inteligentes y aceleración de datos tiene un enorme potencial para el almacenaje de súper gran velocidad. El disco RAM y el almacenaje inteligente no existirían sin las últimas innovaciones en Ethernet RDMA y NVMe-over-Fabrics.

¿Qué futuro tiene la tecnología Ethernet?

doscientos Gigabit Ethernet ya está empezando a extenderse desde las soluciones HPC a los centros de datos. El estándar duplica los carriles a cincuenta GbE cada uno de ellos y hay una plan de actuación notable que va a ver uno con cinco terabits en solo unos pocos años. PCI Exprés cuarenta y cincuenta van a jugar un papel esencial al permitir estas velocidades más altas, y las compañías proseguirán buscando formas de llevar la energía al máximo, apresurar las velocidades de trasferencia y localizar formas de dirigir las operaciones de la CPU. Y GPU con controladores de red y FPGA .

Share This