<div dir="ltr"><br><div class="gmail_extra"><br><br><div class="gmail_quote">On Sat, Mar 2, 2013 at 12:28 PM, ronni montoya <span dir="ltr">&lt;<a href="mailto:ronni.montoya@gmail.com" target="_blank">ronni.montoya@gmail.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
In this case entropy varies with time and what i am interested in are<br>
the entropy trayectories.<br>
<br>
You can plot this trayectories and compare different trayectories from<br>
different songs .<br>
<br>
More complex sound structures should have more complex trayectories ,<br>
not chaotic , not periodic but more complex . The problem for me  is<br>
that  i need to plot or visualize the entropy trayectories (values) in<br>
order to see the complexity of a sound structure.<br>
<br>
It would be nice to find a way to automate , for example find a way of<br>
measure different trayectories algorithmically and that computer can<br>
tells automatically which one is more complex.<br></blockquote><div><br></div><div>The subject I&#39;ve been reading lately is basic computational neuroscience.  I&#39;ll explain what I think is a similar example.  Shannon entropy I think is connected to transmitting and processing information in neurons.<br>
<br></div><div>When you have two signals that are highly correlated, they have high mutual information.  Neurons in the peripheral nervous system transmit information and the neurons are specialized for transmitting information.  One PNS neuron&#39;s output should have high mutual information with its input neurons.<br>
<br></div><div>The kind of information is categorizing the trajectories.  In terms of its output, a neuron is either firing or not firing.  It&#39;s a lot like a binary variable so it sort of works like a digital signal.  The most information it can carry is bounded by the rate it switches between states.<br>
<br></div><div>In terms of signals--the trajectories of neurons are solutions of non-linear differential equations with lots of terms.  You break out the neuron voltage into state-space equations where each of the variables is an ion current or the axon hillock voltage.  In a neuron, some kinds of ions act quickly and inhibit, or two kinds of ions resonate when one is a fast exciter and the other is a slow inhibitor.  A neuron is firing when the trajectory in the phase plane passes around an unstable equilibrium.<br>
</div><div><br></div><div>Thing is, that&#39;s more of a synthesis problem.  You just go ahead and build your model generate signals and then you can calculate entropy because you built your model to switch between states.  The possible values of the system are constrained to the model--what do you do if you don&#39;t know what the possible values are? <br>
<br></div><div>I applied for grad school this spring down at FAU in the CCSBS.  Anything with BS in its name is great for me.  This time it stands for Brain Sciences :)<br></div></div></div></div>