<div dir="ltr">Hmmm. These results are surprising to me. Is there a difference between the 1 process run and the 2 processes run? Is one compiled to use Mesa and the other one accelerated OpenGL? Rendering should not jump like that. Also, how many cores are on this system? I am surprised that processing goes up when going to 4 processes.<div>

<br></div><div>-berk</div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Tue, Mar 26, 2013 at 11:40 AM, Dr. Olaf Ippisch <span dir="ltr">&lt;<a href="mailto:olaf.ippisch@iwr.uni-heidelberg.de" target="_blank">olaf.ippisch@iwr.uni-heidelberg.de</a>&gt;</span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Dear Berk,<br>
<br>
I tried your suggestion and coloured the result with the<br>
ProcessIdScalars Filter. I can see the partitioning and it also makes<br>
sense, so there should not be any major load imbalance. I did add some<br>
timing information in the code. I add the changed program. It is evident<br>
that the data input is not the bottleneck. There is also some speedup in<br>
the application of the filters (should be the contour filter mostly),<br>
but this is more than compensated by the much longer time needed by the<br>
WriteImage command which does the rendering. You can see the times<br>
below. As I use a fast raid for the I/O this is not due to disk speed.<br>
Do you have any ideas if I could do something to speed up this last part?<br>
<br>
Best regards,<br>
Olaf<br>
<br>
1 Process:<br>
Reading data from  conc_4996800.vtr<br>
Setup and Transformation took  1.52222299576<br>
Writing  contour_00380.png<br>
[Array: conc, Array: ProcessId]<br>
(0.0, 0.0)<br>
Filters took  83.8577969074<br>
Rendering took  13.8007481098<br>
Total runtime:  99.1809921265<br>
<br>
2 Processes:<br>
Reading data from  conc_4996800.vtr<br>
Setup and Transformation took  1.02662491798<br>
Writing  contour_00380.png<br>
[Array: conc, Array: ProcessId]<br>
(0.0, 1.0)<br>
Filters took  54.6261291504<br>
Rendering took  46.8519799709<br>
Total runtime:  102.504925966<br>
<br>
4 Processes:<br>
Reading data from  conc_4996800.vtr<br>
Setup and Transformation took  0.90910410881<br>
Writing  contour_00380.png<br>
[Array: conc, Array: ProcessId]<br>
(0.0, 3.0)<br>
Filters took  56.8009800911<br>
Rendering took  42.3190040588<br>
Total runtime:  100.029356956<br>
<br>
<br>
<br>
Am 26.03.13 13:43, schrieb Berk Geveci:<br>
<div class="im">&gt; Hi Olaf,<br>
&gt;<br>
&gt; From your previous message, I am assuming that you are using vtr files.<br>
&gt; In this case, the processing should scale. If you can make an example<br>
&gt; files available, I can verify this. Feel free to e-mail them to me<br>
&gt; directly or I can download them somewhere if they are too big. The two<br>
&gt; potential problems are:<br>
&gt;<br>
&gt; - IO. You still have one disk if you are not running this on a cluster.<br>
&gt; If the processing that ParaView is doing is negligible compared to the<br>
&gt; time it takes to read the data, you will not see good scaling of the<br>
&gt; whole script as you add more processes.<br>
&gt;<br>
&gt; - Load balancing. ParaView uses static load balancing when running in<br>
&gt; parallel. So if that partitioning is not load balanced wrt iso-surfacing<br>
&gt; (e.g. most of the iso-surface is generated by one process only), you<br>
&gt; will not see good scaling. You can check if this is the case by applying<br>
&gt; Process Id Scalars to the contour output. It will color polygons based<br>
&gt; on which processor generates them.<br>
&gt;<br>
&gt; Best,<br>
&gt; -berk<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; On Mon, Mar 25, 2013 at 10:46 AM, Dr. Olaf Ippisch<br>
&gt; &lt;<a href="mailto:olaf.ippisch@iwr.uni-heidelberg.de">olaf.ippisch@iwr.uni-heidelberg.de</a><br>
</div><div class="im">&gt; &lt;mailto:<a href="mailto:olaf.ippisch@iwr.uni-heidelberg.de">olaf.ippisch@iwr.uni-heidelberg.de</a>&gt;&gt; wrote:<br>
&gt;<br>
&gt;     Dear Paraview developers and users,<br>
&gt;<br>
&gt;     I tried to run paraview in parallel using a python script. I compiled a<br>
&gt;     server including OpenMPI support and support for MESA off-screen<br>
&gt;     rendering and started the server using mpirun. The I connected from a<br>
&gt;     python script (see attachment). I could see that there are two threads<br>
&gt;     both taking 100% CPU time. However, there was absolutely no speed-up.<br>
&gt;     The runtime using two processors was completely the some. The data sets<br>
&gt;     were rather large (about 100 million unknowns in 3D, 512 x 512 x 405).<br>
&gt;     The result looked like the result with one process, but the time needed<br>
&gt;     was also the same. I am sure that I am making some error either in the<br>
&gt;     setup or I am missing something in the python program. Do you have any<br>
&gt;     suggestions?<br>
&gt;<br>
&gt;     Best regards,<br>
&gt;     Olaf Ippisch<br>
&gt;<br>
&gt;     --<br>
&gt;     Dr. Olaf Ippisch<br>
&gt;     Universität Heidelberg<br>
&gt;     Interdisziplinäres Zentrum für Wissenschaftliches Rechnen<br>
&gt;     Im Neuenheimer Feld 368, Raum 4.24<br>
&gt;     Tel: 06221/548252   Fax: 06221/548884<br>
&gt;     Mail: Im Neuenheimer Feld 368, 69120 Heidelberg<br>
&gt;     e-mail: &lt;<a href="mailto:olaf.ippisch@iwr.uni-heidelberg.de">olaf.ippisch@iwr.uni-heidelberg.de</a><br>
</div>&gt;     &lt;mailto:<a href="mailto:olaf.ippisch@iwr.uni-heidelberg.de">olaf.ippisch@iwr.uni-heidelberg.de</a>&gt;&gt;<br>
&gt;<br>
&gt;     _______________________________________________<br>
&gt;     Powered by <a href="http://www.kitware.com" target="_blank">www.kitware.com</a> &lt;<a href="http://www.kitware.com" target="_blank">http://www.kitware.com</a>&gt;<br>
<div class="im HOEnZb">&gt;<br>
&gt;     Visit other Kitware open-source projects at<br>
&gt;     <a href="http://www.kitware.com/opensource/opensource.html" target="_blank">http://www.kitware.com/opensource/opensource.html</a><br>
&gt;<br>
&gt;     Please keep messages on-topic and check the ParaView Wiki at:<br>
&gt;     <a href="http://paraview.org/Wiki/ParaView" target="_blank">http://paraview.org/Wiki/ParaView</a><br>
&gt;<br>
&gt;     Follow this link to subscribe/unsubscribe:<br>
&gt;     <a href="http://www.paraview.org/mailman/listinfo/paraview" target="_blank">http://www.paraview.org/mailman/listinfo/paraview</a><br>
&gt;<br>
&gt;<br>
<br>
</div><div class="HOEnZb"><div class="h5">--<br>
Dr. Olaf Ippisch<br>
Universität Heidelberg<br>
Interdisziplinäres Zentrum für Wissenschaftliches Rechnen<br>
Im Neuenheimer Feld 368, Raum 4.24<br>
Tel: 06221/548252   Fax: 06221/548884<br>
Mail: Im Neuenheimer Feld 368, 69120 Heidelberg<br>
e-mail: &lt;<a href="mailto:olaf.ippisch@iwr.uni-heidelberg.de">olaf.ippisch@iwr.uni-heidelberg.de</a>&gt;<br>
</div></div></blockquote></div><br></div>