<div dir="ltr"><div><div>Hi Ronni,<br><br></div>I&#39;ve been traveling and I was unable to say much about the book at the time.  This book seems to be an original work--I think it&#39;s a little strange that most of the references are the original works about entropy, fractal dimension, and the like.  I would have liked to see some references to journal articles where his ideas about entropy, etc.. are published.  Bader goes into great depth about origins and roots for trying to apply entropy and fractal dimension.  I think you&#39;ll like the book--and I&#39;m glad to hear you&#39;re doing more with these interesting topics.<br>
<br></div>Bader&#39;s entropy definitions are a basic approach based on box-counting methods (and that&#39;s the method of calculation as well).  I think it lacks some analytical treatment, that would be necessary to show the calculations converge to something exact that makes sense.<br>
<div class="gmail_extra"><br><div class="gmail_quote">On Mon, Nov 25, 2013 at 10:29 AM, Ronni Montoya <span dir="ltr">&lt;<a href="mailto:ronni.montoya@gmail.com" target="_blank">ronni.montoya@gmail.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Oh thank you, im gonna get that book.<br>
<br>
<br>
I been working with entropy lately , experimenting new ways of using<br>
entropy, and the way i discovered of using entropy in music in a<br>
useful way  is this way:<br>
<br>
First i generate  strings of characters using L-systems. Then i use<br>
shannon entropy to classify each string based on its level of entropy.<br></blockquote><div><br></div><div>This sounds really cool.<br></div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

<br>
Strings with low entropy are gonna be very repetitive and strings with<br>
high entropy are gonna be very random. In the middle level you can<br>
have complex strings ( no so random  and no so repetitive).<br>
<br>
Basically what i was trying is to use entropy as a way of doing<br>
aesthetic measure of self generated sound structures , i get this idea<br>
because once talking with a musician he told me that the function of a<br>
musician is to make sonic structures that are no so repetitive and not<br>
so random, in other words beauty is a point where sound structures are<br>
no very repetitive and also not very random, you need a little bit of<br>
repetitiveness and also you need surprise , so shannon entropy can be<br>
a useful way of measuring this.<br></blockquote><div><br></div><div>That&#39;s also a topic here, except it&#39;s mostly applied to instrumental sounds in the Bader book (much shorter time scales), but with the same basic trend:  expressive and meaningful tones/timbres have some level of complexity between repetitive and random.<br>
</div><div> <br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
After making my classification of strings i sonify them at different<br>
time scales, using different shannon entropy values depending on the<br>
time scale and also in the sound im using ( for example for<br>
percussions i use low entropy strings) ....<br>
<br>
<br>
What do you think?  if anybody is interested i can send the app, but i<br>
made it in supercollider.<br>
<br>
<br>
cheers<br>
<br>
<br>
R.<br>
<br>
<br>
<br>
<br>
2013/11/23, Charles Z Henry &lt;<a href="mailto:czhenry@gmail.com">czhenry@gmail.com</a>&gt;:<br>
<div class="HOEnZb"><div class="h5">&gt; Hey Ronni, I realize you may not be interested in this topic any more, but<br>
&gt; I recently came across a book with relevant sections on Entropy as applied<br>
&gt; to music:<br>
&gt; Nonlinearities and Synchronization in musical acoustics and music<br>
&gt; psychology by Rolf Bader<br>
&gt;<br>
&gt; Chuck<br>
&gt; On Feb 26, 2013 4:11 AM, &quot;ronni montoya&quot; &lt;<a href="mailto:ronni.montoya@gmail.com">ronni.montoya@gmail.com</a>&gt; wrote:<br>
&gt;<br>
&gt;&gt; Hi , i was wondering if anybody have implemented the shannon entropy<br>
&gt;&gt; function in pd?<br>
&gt;&gt;<br>
&gt;&gt; Do anybody have tried measuring entropy of a signal?<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; cheeers<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; R.<br>
&gt;&gt;<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; <a href="mailto:Pd-list@iem.at">Pd-list@iem.at</a> mailing list<br>
&gt;&gt; UNSUBSCRIBE and account-management -&gt;<br>
&gt;&gt; <a href="http://lists.puredata.info/listinfo/pd-list" target="_blank">http://lists.puredata.info/listinfo/pd-list</a><br>
&gt;&gt;<br>
&gt;<br>
</div></div></blockquote></div><br></div></div>