GEM already has two objects for turning audio into video and back again - pix_sig2pix and pix_pix2sig.  How is this proposal different from what those objects do already?  Would changing the block~ object and using the pix_ objects implement the system as proposed?
<br><br>cgc<br><br><br>On 5/27/06, <b class="gmail_sendername">Miller Puckette</b> &lt;<a href="mailto:mpuckett@imusic1.ucsd.edu" target="_blank" onclick="return top.js.OpenExtLink(window,event,this)">mpuckett@imusic1.ucsd.edu
</a>&gt; wrote:<div><span class="gmail_quote"></span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
To Pd developers,<br><br>After years of worrying about it, I'm thinking it's time to add video<br>support natively to Pd.&nbsp;&nbsp;My basic idea is to add a feature to the block~<br>object so that windows of DSP computation can be triggered from external
<br>messages.&nbsp;&nbsp;That way, video I/O objects could be designed to spit out<br>frames or portions of frames on demand, and the user gets the ability to<br>explicitly schedule how the video computations should be run.<br><br>


</blockquote></div><br>