|
2.28, Аноним (28), 01:11, 17/10/2025 [^] [^^] [^^^] [ответить]
| +/– |
Так это в первую очередь. И если это выкинули в паблик, то УЖЕ почти наверняка внедрено там где надо.
| |
|
1.5, Аноним (5), 22:30, 16/10/2025 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Есть мнение, что Coral уже давно дрова
Например Hailo-8 и Hailo-8L гораздо выгоднее и мощнее
| |
|
2.25, Аноним (25), 00:38, 17/10/2025 [^] [^^] [^^^] [ответить]
| +/– |
> Первым производителем, начавшим производство чипов на базе Coral NPU, __станет__ компания Synaptics
Это какой-то другой корал, который ещё не вышел. tops/w другой совершенно.
| |
|
|
2.9, x3who (?), 22:57, 16/10/2025 [^] [^^] [^^^] [ответить]
| +/– |
это не для иоты, а для думающих ллм-ок. Непонятно, кстати, где купить-то ускоритель на этих чипах?
| |
2.10, Аноним (10), 22:58, 16/10/2025 [^] [^^] [^^^] [ответить]
| +/– |
Все хотят запрыгнуть на ушедший поезд openai. Технически ускорители хорошая идея, практически Гугл неудачники какие-то. Лет через 10, может быть, достигнут нынешнего уровня, массовое внедрение и удешевление в любом случае на пользу потребителям.
| |
|
3.14, zionist (ok), 23:11, 16/10/2025 [^] [^^] [^^^] [ответить]
| +/– |
В чём они неудачники? У них достаточно хорошая модель. Если кто и неудачники, так это Мета.
| |
|
4.17, Аноним (10), 23:20, 16/10/2025 [^] [^^] [^^^] [ответить]
| +/– |
> В чём они неудачники? У них достаточно хорошая модель. Если кто и
> неудачники, так это Мета.
Как там Gemini поживает? С тех пор, как начали внедрять языковые модели, все их сервисы просели. Пользователи не оценили. И это при том, что у них есть буквально бесконечные деньгм.
| |
|
|
6.22, Аноним (10), 23:37, 16/10/2025 [^] [^^] [^^^] [ответить]
| +/– |
> Вроде нормально Gemini поживает.
Дешёвая подделка, а сколько маркетинга было.
| |
|
|
|
3.15, Аноним (15), 23:13, 16/10/2025 [^] [^^] [^^^] [ответить]
| +1 +/– |
>и удешевление в любом случае на пользу потребителям.
...и платах сбора информации с датчиков... Корпорация зла не допустит, чтобы что-то пошло людям на пользу. Все ИИ на IOT будут использоваться против клиентов, что их купили. И конечно же возможности перепрошить устройство без ключа производителя не будет.
| |
|
|
1.13, Ан339ним (?), 23:05, 16/10/2025 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
И как вы не боитесь использовать AI без одобрения гуру Столлмана, а вдруг они несут угрозу вашей свободе?
| |
1.19, Аноним (19), 23:23, 16/10/2025 [ответить] [﹢﹢﹢] [ · · · ]
| –2 +/– |
> В NPU задействована 32-разрядная архитектура
Как так-то?! Фанаты 64-х бит говорят, что 32-битных систем не существует уже, что всё надо на 64 переписать. Неужели Гугл отстал от современных технологий?
| |
|
|
3.24, Аноним (25), 00:35, 17/10/2025 [^] [^^] [^^^] [ответить]
| +/– |
Нет, это стандартный riscv cpu со стандартными современными CPU инструкциями, благодаря чему могёт в нейронки. Но т.к. это riscv то по идее не только нейронки там можно ранить, можно там фурье какое-нибудь считать или кодеки. Код под riscv должен уметь скалиться но любую длину вектора, так что из коробки многие вещи должны заработать на нём.
| |
|
2.29, Аноним (28), 01:12, 17/10/2025 [^] [^^] [^^^] [ответить]
| +/– |
Ты даже не представляешь как сейчас обделался. Щас удивишься, когда скажу, что в ИИ есть и 4 и даже 2 битные системы.
| |
|
1.27, Аноним (-), 00:57, 17/10/2025 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
deepseek> The RV32IMF_Zve32x's foundational ISA is architecturally misaligned for modern NPU workloads. The scalar RV32I core, even with M/F extensions, becomes a severe Amdahl's Law bottleneck, as its 4-stage pipeline and single-issue, in-order execution cannot sustain the instruction dispatch rates required to feed the parallel execution units without significant stalling. The memory subsystem is a critical failure; a single AXI4 bus presents a catastrophic memory wall, saturating under the simultaneous load/store demands from the scalar core, the VV v1.0 unit's wide vector registers, and the MAC coprocessor's weight streams, leading to pervasive contention and latency that nullifies theoretical compute peak.
deepseek> While the RVV v1.0 coprocessor provides data-level parallelism, its implementation as a coprocessor with a decoupled 2-stage pipeline introduces synchronization overhead and control complexity that a fused, NPU-specific dataflow architecture avoids. The 128-bit SIMD is an anachronism, providing insufficient operand bandwidth for modern INT8 or BF16 tensor operands, forcing excessive loop strip-mining. Crucially, the system lacks a dedicated, intelligent DMA engine for multi-dimensional tensor tiling and transposition, a non-negotiable feature for efficient data orchestration in convolutional or transformer layers. The disjointed nature of the scalar core, vector unit, and MAC array creates a coherence nightmare, requiring explicit, software-managed data movement that consumes both power and cycles, rendering the platform grossly inefficient compared to integrated NPUs with native weight-stationary/output-stationary dataflows and dedicated tensor memory hierarchies.
Соль и сахер по вкусу.
| |
|