Компютърът на бъдещето може да е аналогов със светлинна скорост

Ваня Милева Последна промяна на 08 октомври 2025 в 00:00 102 0

Печатна платка

Кредит UTS

Печатна платка на изработеното унитарно матрично устройство, включващо слоеве от блокове за разделяне на мощност (жълто-пунктирани) и независими елементи от активната фаза (червено-пунктирани) и индивидуално изработен слой за разделяне на мощност.

Проектирана е аналогова компютърна схема, която използва радио и микровълнови сигнали за извършване на масивни изчисления, която същевременно използва по-малко енергия от конвенционалната дигиталн а електроника.

"За разлика от квантовите системи, които са изправени пред големи предизвикателства по отношение на мащабируемостта и стабилността, нашата аналогова изчислителна платформа е осъществима днес и е способна да предоставя реални приложения много по-рано", заявява д-р Расул Кешаварз (Rasool Keshavarz) от лабораторията за радиочестотни и комуникационни технологии (RFCT) в австралийския Технологичен университет в Сидни (UTS).

"Този ​​пробив проправя пътя за аналогови радиочестотни и микровълнови процесори от следващо поколение с приложения в радари, усъвършенствани комуникации, сензори и космически технологии, които изискват операции в реално време."

Новите открития са публикувани в статия в Nature Communications.

"Свързахме физиката и електрониката, за да проектираме първата програмируема микровълнова интегрална схема, която може да изпълнява матрични трансформации – вид математическа операция, която е фундаментална за съвременните технологии", добавя Мохамад-Али Мири (Mohammad-Ali Mir), доцент в Рочестърския технологичен институт, САЩ.

Матрицата е набор от числа, подредени в таблица. Матричните трансформации са вид математическа функция, която променя един набор от данни или матрица в друг. (Вижте по-подробното обяснение под статията)

Аналоговите изчисления обработват информация, използвайки непрекъснати сигнали като електромагнитни вълни, което позволява много изчисления да се извършват паралелно и с много по-малко енергия, отколкото цифровите изчисления.

Ултрабързите аналогови процесори биха могли да захранват изчислителни системи от следващо поколение, включително безжични мрежи, радар и сензори в реално време, мониторинг в минното дело и селското стопанство, както и нови инструменти за научни изследвания.

"Това проучване бележи началото на по-широка изследователска траектория", отбелязва Кешаварз.

"Вече се подготвят последващи проучвания за разширяване на технологията към практични архитектури на системно ниво, така че изчисленията да могат да преминат отвъд цифровите граници."

Екипът експериментално е демонстрирал концепцията на това устройство, използвайки четирипортова интегрална схема, работеща в честотния диапазон от 1,5–3,0 GHz и на стотици микроватови нива на мощност.

"Предложеното устройство може да проправи пътя за универсални аналогови радиочестотни и микровълнови процесори и предпроцесори с програмируеми функционалности за многоцелеви приложения в съвременни комуникационни и радарни системи", пишат изследователите в статията си.

Справка: Keshavarz, R., Zelaya, K., Shariati, N. et al. Programmable circuits for analog matrix computations. Nat Commun 16, 8514 (2025). https://doi.org/10.1038/s41467-025-63486-z 

Източник: Light-speed analogue could be the future of computing, Сosmos magazine

Матрични трансформациио

Матричните трансформации са в основата на много съвременни технологии, от компютърната графика до изкуствения интелект (ИИ). Независимо дали става въпрос за завъртане на 3D модел във видеоигра или за език за обработка в голям ИИ модел (т.е. LLM), матриците ни позволяват да трансформираме данни по начини, които водят до смислени резултати. Но как точно работят матричните трансформации и как са свързани с авангардните ИИ модели като GPT, които революционизират индустриите днес?

Какво е матрична трансформация?

В основата си, част от линейната алгебра, матричната трансформация е математическа функция, която променя един набор от данни в друг. Представете си матрицата като таблица от числа, подредени в редове и колони. Когато умножите матрица по вектор (друг набор от числа), вие трансформирате вектора по някакъв начин – независимо дали чрез промяна на посоката му, разтягане, завъртане или нещо друго.

Матричните трансформации могат да бъдат прости (като мащабиране или завъртане на обект в пространството) или сложни (като промяна на представянето на дума в голям модел на изкуствен интелект). Въпреки че концепцията може да звучи абстрактно, тя е крайъгълен камък на много технологии, с които взаимодействаме всеки ден.

Матрични трансформации в компютърната графика

За да направим тази концепция по-осезаема, нека започнем с пример от компютърната графика, индустрия, където матричните трансформации отдавна са от съществено значение.

Представете си, че имате точка в 2D пространството, представена с нейните координати (x,y) (x,y) (x,y). Сега искате да завъртите тази точка около началото на координатната система с определен ъгъл, θ. Можете да постигнете това с матрична трансформация. Матрицата на въртене изглежда така:

Умножаването на тази матрица по координатите на вашата точка (x,y) (x,y) (x,y) ще ви даде новите координати на точката, след като тя бъде завъртяна:

Това е класически пример за матрична трансформация в компютърната графика и днес тя се е превърнала в графични примитиви, преминали от софтуер (напр. OpenGL) към хардуер (напр. Nvidia). Матрицата е трансформирала местоположението на точката, като я е завъртала, което е полезно за задачи като рендиране на 3D модели или анимиране на обекти в игра.

Матрични трансформации в изкуствен интелект и големи езикови модели (LLM)

Сега нека сравним това с матричните трансформации в изкуствения интелект, по-специално в модели с големи езици (LLM) като GPT. Въпреки че приложението е различно, основният принцип остава същият: трансформиране на данни с помощта на матрични операции.

В случай на езиков модел като GPT, думите или токените (най-малките езикови единици, които моделът обработва) първо се преобразуват в дигитални представяния, наречени вграждания на думи. Тези вграждания са многомерни вектори, където всяко измерение кодира някакъв аспект от значението или контекста на думата. След като думите са представени като вектори, се прилагат матрични трансформации, за да се извлекат смислени връзки между тях.

Например, разгледайте думата "котка", представена от вектор Vcat в многомерно пространство. Моделът с изкуствен интелект прилага матрична трансформация към този вектор, за да коригира значението му въз основа на контекста, в който се появява "котка". Ето какво се случва:


Където W е матрицата, която моделът е научил по време на обучението си, а V'cat е трансформираният вектор. Тази матрична трансформация коригира позицията на вектора "котка" в многомерното пространство, помагайки на модела да разбере, че "котка" може да има различни значения в зависимост от това дали се появява в контекста на "домашни любимци", "животни" или "роботика".

Подобно на примера с графиката, матричната трансформация в изкуствения интелект коригира входните данни (в този случай, вграждането на думи), за да се постигне желаният резултат (като разбиране на връзките между думите). Разликата е, че в графиката трансформирате точки във физическо пространство, докато в изкуствения интелект трансформирате данни в абстрактно, семантично пространство.

Матричните трансформации може да изглеждат като сложна математическа концепция, но те са невидимата сила зад голяма част от технологиите, които използваме днес. Независимо дали проектирате 3D модел, обучавате голям езиков модел или генерирате сложно приложение, управлявано от изкуствен интелект, матриците са налице, трансформират данните и осмислят дигиталния свят.

    Най-важното
    Всички новини