<div dir="ltr">Hi All,<div><br></div><div>I&#39;ve been a silent observer for some time now, but since GPU processing is &#39;close to my heart&#39;, I thought I&#39;d jump in... So there goes my first post in the pd-list...</div>
<div><br></div><div style>In general, GPUs are really beneficial for parallelisable algorithms involving heavy-computations, such as FFTs, fast convolution, BLAS with huge matrices, finite difference modelling etc... To maximise performance, the GPU kernel needs to unanimously operate over a large enough data set which needs to be copied into the device&#39;s memory, as GPUs generally can&#39;t access the host memory. This would mean large buffers --&gt; increased latency. So doing &#39;real-time&#39; DSP on a GPU would probably make more sense for stuff like physical modelling, complex additive synthesis etc..., rather than to &#39;generally reduce the system latency&#39;.</div>
<div style><br></div><div style>*However*, if the SoC platform physically shares memory between the GPU and the CPU, then this could, in theory, help reduce the inherent latency (as no memory transfers would be required), but without having detailed documentation, this would be difficult to assess. </div>
<div style><br></div><div style>Cheers,</div><div style>Jon.</div><div style><br></div><div style><a href="http://www.jonsh.net">www.jonsh.net</a></div></div>