A inteligência artificial tem impulsionado o desenvolvimento de novos formatos numéricos, formas como os números são representados digitalmente. Engenheiros buscam maneiras de economizar tempo de computação e energia, reduzindo a quantidade de bits usados para representar dados. No entanto, o que funciona para a IA nem sempre é eficaz para a computação científica, que inclui áreas como física computacional, biologia e simulações de engenharia. De acordo com informações do IEEE Spectrum, Laslo Hunhold, engenheiro de IA na startup Openchip, está desenvolvendo um formato numérico específico para a computação científica.
Por que novos formatos numéricos são necessários?
Nos últimos anos, empresas de IA perceberam que não precisam de 64 bits para cada número, incentivando a redução para 16, 8 ou até 2 bits para economizar energia. No entanto, o padrão dominante de 64 bits não é adequado para contagens de bits menores, levando ao desenvolvimento de novos formatos mais adequados para a IA.
Quais são os desafios na computação científica?
A computação científica requer um alto alcance dinâmico e precisão, necessitando de números muito grandes ou pequenos com alta exatidão. O padrão de 64 bits oferece um alcance dinâmico excessivo, mas é mais do que o necessário na maioria das vezes. Em contraste, a IA geralmente lida com números que seguem uma distribuição específica, não exigindo tanta precisão.
O que é o formato numérico takum?
Hunhold introduziu o formato numérico takum, baseado em posits, que são densos para números próximos a um, mas não funcionam bem para a computação científica. Os takums são projetados para manter o alcance dinâmico necessário para cálculos científicos, mesmo com a redução de bits.
Fonte original: IEEE Spectrum