W kwietniu 2021 roku opublikowałem artykuł w Printed Circuit Design & Fab, w którym ogłosiłem, że przyszłość AI jest wbudowana. Krótko mówiąc, moim zdaniem systemy wbudowane będą wykorzystywać większe użycie AI na urządzeniu końcowym, co oznacza, że będą w mniejszym stopniu polegać na platformach chmurowych lub centrach danych do wnioskowania.
Bez wątpienia wciąż uważam, że przyszłość AI jest wbudowana, ale nie z układem scalonym czy architekturą systemu, o jakiej bym pomyślał. W momencie pisania poprzedniego artykułu, wciąż tkwiłem w przekonaniu, że logika kombinacyjna + sekwencyjna może pokonać wszystkie problemy obliczeniowe. Doświadczenie pokazało, że po prostu nie może.
Ten pogląd został potwierdzony w ciągu ostatnich 18 miesięcy, szczególnie po wydaniu wielu nowych chipów przyspieszających AI w 2022 roku. Dla projektantów PCB i inżynierów, te chipy są świetną opcją do szybkiego dodawania możliwości AI do projektu poprzez standardowe interfejsy. Zazwyczaj są one dostępne poprzez PCIe Gen2 lub szybsze linie, możliwe również przez USB, a nawet coś tak wolnego jak SPI dla przyspieszaczy o niskiej mocy obliczeniowej. Chipy te są również dostępne w standardowych obudowach (quad lub BGA), które umieszcza się i trasuje w zwykły sposób. Aby zobaczyć, dokąd zmierza AI na urządzeniach i co będzie dalej, postanowiłem przedstawić niektóre z najciekawszych wydań przyspieszaczy AI w 2022 roku.
Odkąd świat wszedł w erę AI, przemysł sprzętowy ma dużo pracy do wykonania, aby dorównać przemysłowi oprogramowania. Niektóre z nowszych zaawansowanych procesorów celujących w wbudowane aplikacje AI są wymienione w poniższej tabeli.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Te startupy i instytucje badawcze napędzają rozwój wbudowanego AI dzięki znaczącym postępom w ich niestandardowych chipach. W przeciwieństwie do tego, nie widzieliśmy dużo dalszego rozwoju od ugruntowanych produktów wbudowanego AI, takich jak Google Coral, który był jednym z łatwych w użyciu modułów lub chipów akceleratorów. Oprócz tych specjalistycznych procesorów, projektanci mają do dyspozycji dwie inne ścieżki, aby wprowadzić możliwości wbudowanego AI do swoich projektów.
Po przeanalizowaniu trendów tych startupów, ugruntowanych producentów półprzewodników oraz społeczności open source, można wyróżnić trzy ścieżki implementacji wbudowanej AI w nowym systemie:
Akceleratory oprogramowania na MCU – Najmniej wymagająca obliczeniowo ścieżka do przyspieszenia wnioskowania AI, tagowania/przetwarzania wstępnego i uczenia znajduje się w oprogramowaniu/mikroprogramie. Pakiety takie jak TinyML pozwalają deweloperom szybko wdrażać techniki akceleracji oparte na oprogramowaniu, które przyspieszają wnioskowanie. Metody te polegają na manipulacji danymi lub modelem w celu zmniejszenia liczby kroków przetwarzania wymaganych w wnioskowaniu. Dzięki tym technikom, deweloperzy mogą teraz uruchamiać prostsze modele wnioskowania na małych MCU, wszystko to przy użyciu prostej logiki sekwencyjnej + kombinacyjnej.
Własny krzem – Nie ma szans, aby własne SoC zniknęły z rynku w najbliższym czasie, ponieważ wszystkie duże technologiczne nazwy rozwijają własne wewnętrzne możliwości rozwoju chipów. Dzięki gotowym rdzeniom od ARM i otwartemu standardowi jak RISC-V, projektanci chipów mogą szybko opracować projekt rdzenia, który implementuje operacje obliczeniowe AI na poziomie logiki jako instrukcję sprzętową. To znacznie redukuje zużycie energii i liczbę surowych operacji obliczeniowych.
FPGA – Trwa ciągły nacisk, aby FPGA przestały być postrzegane wyłącznie jako narzędzia do prototypowania układów scalonych, a zaczęły być używane jako procesory produkcyjne. Producenci półprzewodników wspierają teraz implementację RISC-V i przyspieszanie AI, aby tworzyć wysoko spersonalizowane rdzenie FPGA z zaimplementowanymi na poziomie instrukcji zadaniami wnioskowania i uczenia AI. Wszystkie moje ostatnie projekty dla klientów związane z zaawansowanymi aplikacjami (systemy obrazowania napędzane AI i fuzja sensorów) zostały zbudowane wokół FPGA jako głównego procesora.
Wymienione powyżej produkty są wszystkie oparte na niestandardowym krzemie. Branża FPGA nie potrzebuje specjalnie dla AI niestandardowego krzemu, ich klienci mogą używać narzędzi deweloperskich do implementacji AI na poziomie logiki, nie martwiąc się o projektowanie obwodów logicznych naśladujących strukturę sieci neuronowej. Producenci półprzewodników dostrzegają wartość podejścia FPGA i dostarczają projektantom potrzebne narzędzia deweloperskie (w tym zasoby RISC-V), aby zaimplementować rdzeń AI w FPGA.
W kontekście doboru i rozmieszczania komponentów oznacza to, że niektóre systemy mogą być skalowane do fizycznie mniejszych układów scalonych, mniejszego BOM oraz usunięcia wysokiego ryzyka części montażu, a mianowicie chipa przyspieszającego AI. Eliminacja przyspieszacza AI jest świetnym pomysłem na wszystkich poziomach. Dla produkcji, ogólne koszty komponentów i montażu prawdopodobnie zostaną zmniejszone. Dla projektanta PCB, masz o jeden chip mniej (zazwyczaj z wysoką liczbą I/O na BGA) oraz jego peryferia, które musisz umieścić i zaprojektować ścieżki. Dla dewelopera, eliminuje to potrzebę tworzenia sterownika do kontrolowania zewnętrznego przyspieszacza, a następnie integracji tego z aplikacją wbudowaną.
Deweloperzy wbudowanego AI mogą implementować te opcje przyspieszacza AI oparte na sprzęcie do PCB z kompletnym zestawem narzędzi do projektowania produktów w Altium Designer®. Funkcje CAD w Altium Designer umożliwiają realizację wszystkich aspektów projektowania systemów i produktów, począwszy od pakowania i układu PCB, aż po projektowanie wiązek i kabli. Kiedy zakończysz projektowanie i będziesz chciał przekazać pliki swojemu producentowi, platforma Altium 365™ ułatwia współpracę i udostępnianie projektów.
Dotknęliśmy tylko wierzchołka góry lodowej możliwości, jakie oferuje Altium Designer na Altium 365. Zacznij swoją darmową próbę Altium Designer + Altium 365 już dziś.