AI – Interconnect

As aplicações de inteligência artificial nas arquiteturas actuais de computadores exigem muita memória e grande volume de armazenamento rápido para as fases de aprendizagem.

As implementações em GPU e o armazenamento em discos PCIe SSD, dão todo o destaque ao BUS PCI Express. Para maior performance as funções AI podem ser particionadas e implementadas em GPU, interconectadas para maior desempenho.

Existem interconectores NVlink para interconexão entre GPU a 300GB/s.

As ligações das sinapses tem que ser programadas na aprendizagem e guardadas, 150T ligações no humano, depois compiladas e passadas para os GPU. Para aumentar a rapidez da aprendizagem devem usar-se discos PCIe SSD de alta performance. No humano existem 86G neurónios, está ao alcance dos novos GPU.

O armazenamento só está ao alcance dos supercomputadores, no entanto a implementação de funções neuronais é possível em computadores com as novas placas gráficas GPU.

Como se programa? Pois, o sistema tem que aprender a programar-se sozinho! 😊

A necessidade de grande volume de dados em discos rápidos, leva a optar por discos SSD SATA 6Bbps ou PCIe SSD.

 4GB/s https://xs-energy-technologies.pt/cesto3/product-images/PCIe-SSD4x.jpg16GB/s

 

PCI Express Gen2 x1 packet switch interconnect – 5Gbps

Very Slow 400MB/s

 

O armazenamento em discos SATA 6Gbps é adequado.

 

PCI Express Gen3 x1 packet switch interconnect - parallelized – 8Gbps x 18

Slow 900MB/s x 18

O armazenamento em discos PCIe Gen3 x16 é adequado.

 

 

PCI Express Gen3 x4 packet switch interconnect – 32Gbps -  x 24 ports

Fast 3650MB/s

O armazenamento em discos PCIe Gen3 x4 é adequado.

 

 

PCI Express Gen3 x16 packet switch interconnect - parallelized – 128Gbps  x 4 ports + 64 Gbps  x 3 ports

Very Fast 14600MB/s x 4

 

O armazenamento em discos PCIe Gen3 x16 é adequado.

 

Inside the Black Hole

A interconexão de alta velocidade, a caminho da Terabit Network!

http://www.mellanox.com/img/Socket_Direct_CPU_Access.jpg

100Gbps e 200gbps

Resultado de imagem para large scale gpu interconnect

É necessário comunicar cerca de 1PetaByte para treinar, uma iteração um cérebro digital do tipo humano!

Imagem relacionada Nvidia NVSwitch GPU interconnect (Ready for AI?)

Entretanto podem ficar parecidos mais cedo com o seguinte algoritmo: Ligação prioritária para as conexões com mais peso e que tendem a ficar dentro dos processadores GPU ao fim de cerca de uma hora todas as conexões foram comunicadas, entretanto não é preciso esperar tanto e evoluir, claro diminuindo as conexões.
O tempo é incluido no modelo de evolução das ligações neuronais, no início todas as ligações tem o mesmo comprimento, e à medida que os pesos se alteram, as com peso maior ficam mais curtas e as funções neuronais agrupam-se e ficam mais rápidas.

 

Huummmm ………. “Tudo à velocidade da luz ……….. e está tudo parado!”

Com o tempo vai se afastar do GPU e aproximar-se do processador neuronal e tudo ficará mais eficiente e com mais percepção!

 

https://xs-energy-technologies.pt/XSenergy.png

 

Ligadores NVlink SLI Bridges

Adaptadores PCI Express x1 to x4, x8, x16

Adaptadores PCI Express x1 to x4, x8, x16 flexíveis, outros adaptadores PCIe

PCI Express Gen2 x1 packet switch interconnect, vários tipos (x1 to 4 x1; x1 to 8 x1)

PCI Express Gen3 x4 packet switch interconnect, vários tipos

PCI Express Gen3 to Gen4 packet switch interconnect, vários tipos

Discos PCI Express Gen3 x4 e Gen3 x16 e também Gen 3 x1

 

Contacto