It seems that you&#39;re writting parallel geometry in a serial way. Partitioned grid, as far as I know, must be stored as spatial collections in xdmf format. In other words, each processors stores its own grid portion (a pair xdmf/hdf5 file) and rank0, for instance, writes a xdmf file describing how to &quot;glue&quot; the grid pieces using a spatial collection clause.<br>

<br>[]&#39;s<br><br>Renato.<br><br><div class="gmail_quote">2009/9/2 weaponfire2005 <span dir="ltr">&lt;<a href="mailto:weaponfire2005@163.com">weaponfire2005@163.com</a>&gt;</span><br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">

<div>Hi: </div>
<div>  Well, I post my .xmf file(the attachment). In fact,the structure of the xmf file is simple. It only contains some &lt;Grid&gt;. I use a &quot;for()&quot; loop to write this file. The raw data is HDF5 data format. Is something wrong?</div>


<div> Thanks for help.</div>
<div><br><br> </div>
<div></div><br><pre>2009-09-01,&quot;Berk Geveci&quot; <a href="mailto:berk.geveci@kitware.com%3E+%EF%BC%9A%3ECan+you+post+an+example+dataset?+Just+the+xmf+file+would+be+sufficient.%3E%3E-berk%3E%3E" target="_blank">berk.geveci@kitware.com&gt; ï¼š
&gt;Can you post an example dataset? Just the xmf file would be sufficient.
&gt;
&gt;-berk
&gt;
&gt;</a>  Re:Re: [Paraview] Paraview store all data in every server node?
&gt;&gt; Hi:
&gt;&gt;    I used vtkXdmfReader to read my data(ParaView version is 3.4.0), and I
&gt;&gt; also found some information about my problem(XDMF bad memory use) from
&gt;&gt; the mail list. But I didn&#39;t find a final resolution for it.
&gt;&gt;    My problem is, for example:
&gt;&gt;       run: mpirun -np 4 ./pvserver
&gt;&gt;     after reading data and rendering isosurface, each
&gt;&gt; node(process) consume 2GB memory
&gt;&gt;   and run: mpirun -np 16 ./pvserver
&gt;&gt;     after reading data and rendering isosurface, each
&gt;&gt; node(process) also consume 2GB memory
&gt;&gt;     For this problem, I could&#39;t visualize large-scale dataset. Because if a
&gt;&gt; dataset could be visualized by one node, It also could  be visualized by 16
&gt;&gt; nodes, but if it could&#39;t be visualized by one node, it also could&#39;t by 16
&gt;&gt; nodes(or more).
&gt;&gt;     Maybe I should try ParaView 3.6.1. I will cry if the problem still exist
&gt;&gt; in version 3.6.1......</pre><pre>&gt;&gt;
&gt;&gt; 2009-08-30,&quot;Andy Bauer&quot; &lt;<a href="mailto:andy.bauer@kitware.com" target="_blank">andy.bauer@kitware.com</a>&gt; ï¼š
&gt;&gt;
&gt;&gt; The problem may be the reader that you&#39;re using.  Some of the readers in VTK
&gt;&gt; are not parallel so even if you run multiple processes each process will
&gt;&gt; still try to load the entire dataset in that case.
&gt;&gt;
&gt;&gt; Andy
&gt;&gt;
&gt;&gt; 2009/8/30 weaponfire2005 <a>weaponfire2005@163.com&gt;:
&gt;&gt;&gt;
&gt;&gt;&gt; Hi all:
&gt;&gt;&gt;   First thanks for Dave.Demarle&#39;s help.
&gt;&gt;&gt;   I use &quot;mpirun -np 4 ./pvserver&quot; to launch a server with four
&gt;&gt;&gt; nodes, visualizing a 800*800*300 grid. It seems that each process consume
&gt;&gt;&gt; too much memory. So I extend the number of nodes from 4 to 8 using &quot;mpirun
&gt;&gt;&gt; -np 8 ./pvserver&quot; , but each process on 8 nodes server consume the same
&gt;&gt;&gt; memory as 4 nodes server. The situation of 16 processes(16 nodes) is same as
&gt;&gt;&gt; above.
&gt;&gt;&gt;    I thought that with the number of processes&#39; growth, each process on
&gt;&gt;&gt; server would share less raw data, so the quantity of memory each process
&gt;&gt;&gt; consuming would decline. It proved that I was wrong. Could someone tell me
&gt;&gt;&gt; the reason?
&gt;&gt;&gt;  Thanks for your help:)
&gt;&gt;&gt;  Pan Wang
&gt;&gt;&gt;
&gt;&gt;&gt;
</a><div class="im">&gt;&gt; _______________________________________________
&gt;&gt;&gt; Powered by <a href="http://www.kitware.com" target="_blank">www.kitware.com</a>
&gt;&gt;&gt;
&gt;&gt;&gt; Visit other Kitware open-source projects at
&gt;&gt;&gt; <a href="http://www.kitware.com/opensource/opensource.html" target="_blank">http://www.kitware.com/opensource/opensource.html</a>
&gt;&gt;&gt;
&gt;&gt;&gt; Please keep messages on-topic and check the ParaView Wiki at:
&gt;&gt;&gt; <a href="http://paraview.org/Wiki/ParaView" target="_blank">http://paraview.org/Wiki/ParaView</a>
&gt;&gt;&gt;
&gt;&gt;&gt; Follow this link to subscribe/unsubscribe:
&gt;&gt;&gt; <a href="http://www.paraview.org/mailman/listinfo/paraview%3E%3E%3E%3E%3E%3E%3E%3E%3E" target="_blank">http://www.paraview.org/mailman/listinfo/paraview
&gt;&gt;&gt;
&gt;&gt;
&gt;&gt;
&gt;&gt;
</a>&gt;&gt; Visit other Kitware open-source projects at
&gt;&gt; <a href="http://www.kitware.com/opensource/opensource.html" target="_blank">http://www.kitware.com/opensource/opensource.html</a>
&gt;&gt;
&gt;&gt; Please keep messages on-topic and check the ParaView Wiki at:
&gt;&gt; <a href="http://paraview.org/Wiki/ParaView" target="_blank">http://paraview.org/Wiki/ParaView</a>
&gt;&gt;
&gt;&gt; Follow this link to subscribe/unsubscribe:
&gt;&gt; <a href="http://www.paraview.org/mailman/listinfo/paraview" target="_blank">http://www.paraview.org/mailman/listinfo/paraview</a>
&gt;&gt;
&gt;&gt;
</div></pre><br><br><span title="neteasefooter"></span><hr>
<a href="http://www.yeah.net/?from=footer" target="_blank">没有广告的终身免费邮箱,www.yeah.net</a>
<br>_______________________________________________<br>
Powered by <a href="http://www.kitware.com" target="_blank">www.kitware.com</a><br>
<br>
Visit other Kitware open-source projects at <a href="http://www.kitware.com/opensource/opensource.html" target="_blank">http://www.kitware.com/opensource/opensource.html</a><br>
<br>
Please keep messages on-topic and check the ParaView Wiki at: <a href="http://paraview.org/Wiki/ParaView" target="_blank">http://paraview.org/Wiki/ParaView</a><br>
<br>
Follow this link to subscribe/unsubscribe:<br>
<a href="http://www.paraview.org/mailman/listinfo/paraview" target="_blank">http://www.paraview.org/mailman/listinfo/paraview</a><br>
<br></blockquote></div><br><br clear="all"><br>-- <br>Renato N. Elias<br>===================================<br>High Performance Computing Center (NACAD)<br>Federal University of Rio de Janeiro (UFRJ)<br>Rio de Janeiro, Brazil<br>

<br>Sent from Rio De Janeiro, RJ, Brazil