Hi Berk,<div><br></div><div>Thank you for your reply. One of the priorities  of our in-situ visualization work is speed, so moving data to main memory  may not be a preferred approach. We just need several basic visualization functions(e.g. slice and contour )  and analysis functions(e.g. sub-sampling ). Is it possible that we write our own filters running on GPU and integrate them into the current VTK pipeline?  Since the sources, readers,writers and filters are configured via XML file, if we set up the appropriate filter  XML configuration file, will it work for us ? </div>
<div><br></div><div>Thanks again,</div><div><br></div><div>-Ning<br><br><div class="gmail_quote">On Thu, Feb 25, 2010 at 10:29 PM, Berk Geveci <span dir="ltr">&lt;<a href="mailto:berk.geveci@kitware.com">berk.geveci@kitware.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">It depends on how you want to do it. If you want to keep the data on the GPU memory and perform all of the analysis/visualization on the GPU, VTK is currently not the right tool. Almost all of VTK&#39;s filters work on the CPU whereas rendering happens on the GPU. If you are OK with moving data to main memory whenever you want to do analysis/vis, the in-situ vis work we are doing would be a fit for you. Let me know if you are interested and I can get you started.<br>

<br>-berk<br><br><div class="gmail_quote"><div><div></div><div class="h5">On Wed, Feb 24, 2010 at 10:06 PM, liuning <span dir="ltr">&lt;<a href="mailto:tantics@gmail.com" target="_blank">tantics@gmail.com</a>&gt;</span> wrote:<br>
</div></div><blockquote class="gmail_quote" style="border-left:1px solid rgb(204, 204, 204);margin:0pt 0pt 0pt 0.8ex;padding-left:1ex"><div><div></div><div class="h5">
Hi all,<div><br></div><div>We attempt to do a in-situ visualization to visualize the simulation, which  is mainly performed on GPUs. I noticed that there was a presentation in Vis09  describing how to do in-situ visualization with the help of Python scripts. Since the simulation data reside in GPUs, I wonder whether the approach mentioned above can do this. Or, are there some better methods to do that?</div>


<div><br></div><div>Thanks a lot.</div><div><br></div><div>-Ning</div><div><br></div><div>  </div>
<br></div></div>_______________________________________________<br>
Powered by <a href="http://www.kitware.com" target="_blank">www.kitware.com</a><br>
<br>
Visit other Kitware open-source projects at <a href="http://www.kitware.com/opensource/opensource.html" target="_blank">http://www.kitware.com/opensource/opensource.html</a><br>
<br>
Please keep messages on-topic and check the ParaView Wiki at: <a href="http://paraview.org/Wiki/ParaView" target="_blank">http://paraview.org/Wiki/ParaView</a><br>
<br>
Follow this link to subscribe/unsubscribe:<br>
<a href="http://www.paraview.org/mailman/listinfo/paraview" target="_blank">http://www.paraview.org/mailman/listinfo/paraview</a><br>
<br></blockquote></div><br>
</blockquote></div><br></div>