An alternative to making a complex mpirun arguments is to supply a machines.pvx file. That will let you assign displays to each process on the server. See the ParaView guide p134. for details.<br><br clear="all">David E DeMarle<br>

Kitware, Inc.<br>R&amp;D Engineer<br>28 Corporate Drive<br>Clifton Park, NY 12065-8662<br>Phone: 518-371-3971 x109<br>
<br><br><div class="gmail_quote">On Tue, Aug 11, 2009 at 9:20 AM, John Biddiscombe <span dir="ltr">&lt;<a href="mailto:biddisco@cscs.ch">biddisco@cscs.ch</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">




  
  

<div bgcolor="#ffffff" text="#000000">
Christine <br>
<br>
As you will notice from the start of the thread you link to, we use
multiple GPUs on a single node (2 for us, but 4 for you).<br>
<br>
The secret is to ensure in your case that mpi jobs <br>
0,1 have Display:0<br>
2,3 have Display:1<br>
4,5 have Display:2<br>
6,7 have Display:3<br>
<br>
and then all will be well. you&#39;ll need a rather complicated mpirun -e
blah blah command line.<br>
<br>
JB<br>
<br>
<br>
<blockquote type="cite"><div><div></div><div class="h5">Hi,<br>
  <br>
I currently have one linux node with four GPUs and a single
8 core CPU I&#39;d like to setup as a Paraview server. I am unsure how to
go about setting things up so that MPI assigns each pair of cores a
different GPU, or if problems would arise with the 2 core/1 GPU ratio.
Could someone who has experience with this issue give me some pointers
regarding
the setup?<br>
  <br>
This thread, for example, seems to imply that I would run multiple
instances of pvserver, somehow pointing each to a different GPU?<br>
  <a href="http://www.mail-archive.com/paraview@paraview.org/msg00501.html" target="_blank">http://www.mail-archive.com/paraview@paraview.org/msg00501.html</a><br>
  <br>
Thanks,<br>
  <font color="#888888">Christine</font>
  </div></div><pre><hr size="4" width="90%">
_______________________________________________
Powered by <a href="http://www.kitware.com" target="_blank">www.kitware.com</a>

Visit other Kitware open-source projects at <a href="http://www.kitware.com/opensource/opensource.html" target="_blank">http://www.kitware.com/opensource/opensource.html</a>

Please keep messages on-topic and check the ParaView Wiki at: <a href="http://paraview.org/Wiki/ParaView" target="_blank">http://paraview.org/Wiki/ParaView</a>

Follow this link to subscribe/unsubscribe:
<a href="http://www.paraview.org/mailman/listinfo/paraview" target="_blank">http://www.paraview.org/mailman/listinfo/paraview</a>
  </pre>
</blockquote>
<br><font color="#888888">
<br>
<pre cols="78">-- 
John Biddiscombe,                            email:biddisco @ <a href="http://cscs.ch" target="_blank">cscs.ch</a>
<a href="http://www.cscs.ch/" target="_blank">http://www.cscs.ch/</a>
CSCS, Swiss National Supercomputing Centre  | Tel:  +41 (91) 610.82.07
Via Cantonale, 6928 Manno, Switzerland      | Fax:  +41 (91) 610.82.82</pre>
</font></div>

<br>_______________________________________________<br>
Powered by <a href="http://www.kitware.com" target="_blank">www.kitware.com</a><br>
<br>
Visit other Kitware open-source projects at <a href="http://www.kitware.com/opensource/opensource.html" target="_blank">http://www.kitware.com/opensource/opensource.html</a><br>
<br>
Please keep messages on-topic and check the ParaView Wiki at: <a href="http://paraview.org/Wiki/ParaView" target="_blank">http://paraview.org/Wiki/ParaView</a><br>
<br>
Follow this link to subscribe/unsubscribe:<br>
<a href="http://www.paraview.org/mailman/listinfo/paraview" target="_blank">http://www.paraview.org/mailman/listinfo/paraview</a><br>
<br></blockquote></div><br>