<div dir="ltr"><div><div>Yeah, sorry I'm hogging the linux nodes right now. I just realized last night that there are a bunch more GP runs I need to finish for my dissertation, which I'm trying to finish by the end of June.<br><br></div>Is there something about the minimum RAM that your renders require, or something like that that might be making them not use the Macs? I think Josiah was tweaking something like that when some of Jordan's runs were overflowing memory and causing other things to crash.<br><br></div>Tom<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Jun 23, 2015 at 3:42 PM, Bassam Kurdali <span dir="ltr"><<a href="mailto:bassam@urchn.org" target="_blank">bassam@urchn.org</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi, just spooled another shot, it's waiting to continue.. I know at<br>
least the mac nodes should be open.<br>
<div class="HOEnZb"><div class="h5">On Mon, 2015-06-22 at 23:41 -0400, Wm. Josiah Erikson wrote:<br>
> There was something about a file descriptor limit in tractor-engine,<br>
> so<br>
> I restarted tractor-engine, and it appears to have cleared up. It was<br>
><br>
> probably something having to do with held open file handles with<br>
> new/old<br>
> NFS file handles. You're also spooling all your jobs with the default<br>
><br>
> tag of "slow", which isn't necessarily bad, but I think you could<br>
> also<br>
> do "linux,OSX" or something and get all the nodes at once. I think<br>
> that's the syntax, but I could be remembering wrong.<br>
> I also have to email Wendy about the fact that our license expires in<br>
> 10<br>
> days, and when I go to get a new one, it still does....<br>
>      -Josiah<br>
><br>
><br>
> On 6/22/15 9:30 PM, Bassam Kurdali wrote:<br>
> > Hmm, all of sudden all my tasks are blocked even though there are<br>
> > nodes<br>
> > available - down to the last 4 frames (which are retried errors)<br>
> > and a<br>
> > collate.<br>
> > Tim spooled some tasks but the macs are open, any ideas?<br>
> ><br>
> > On Mon, 2015-06-22 at 20:16 -0400, Wm. Josiah Erikson wrote:<br>
> > > Nice. Saw some pretty impressive bandwidth usage there for a<br>
> > > second:<br>
> > ><br>
> > > <a href="http://artemis.hampshire.edu/mrtg/172.20.160.204_10110.html" rel="noreferrer" target="_blank">http://artemis.hampshire.edu/mrtg/172.20.160.204_10110.html</a> (this<br>
> > > is<br>
> > > actually keg1's network connection - gotta correct that on the<br>
> > > map,<br>
> > > or<br>
> > > just swap over to the old connection)<br>
> > ><br>
> > >       -Josiah<br>
> > ><br>
> > ><br>
> > > On 6/22/15 7:29 PM, Bassam Kurdali wrote:<br>
> > > > I figured and I spooled and it seemed to be working...<br>
> > > > hopefully<br>
> > > > jordan<br>
> > > > doesn't restart his eternal render for a few hours ;)<br>
> > > ><br>
> > > > On Mon, 2015-06-22 at 18:26 -0400, Wm. Josiah Erikson wrote:<br>
> > > > > It's done!<br>
> > > > >        -Josiah<br>
> > > > ><br>
> > > > ><br>
> > > > > On 6/22/15 5:49 PM, Bassam Kurdali wrote:<br>
> > > > > > dats punk! is it done?<br>
> > > > > > On Mon, 2015-06-22 at 20:49 +0200, Chris Perry wrote:<br>
> > > > > > > I can't wait. Thanks, Josiah!<br>
> > > > > > ><br>
> > > > > > > - chris<br>
> > > > > > ><br>
> > > > > > > > On Jun 22, 2015, at 7:50 PM, Wm. Josiah Erikson <<br>
> > > > > > > > <a href="mailto:wjerikson@hampshire.edu">wjerikson@hampshire.edu</a>> wrote:<br>
> > > > > > > ><br>
> > > > > > > > Keg will be going down shortly, and coming back up as a<br>
> > > > > > > > harder,<br>
> > > > > > > > faster,<br>
> > > > > > > > better, stronger version shortly as well, I hope :)<br>
> > > > > > > >       -Josiah<br>
> > > > > > > ><br>
> > > > > > > ><br>
> > > > > > > > > On 6/11/15 9:53 AM, Wm. Josiah Erikson wrote:<br>
> > > > > > > > > Hi all,<br>
> > > > > > > > >       I'm pretty sure there is 100% overlap between<br>
> > > > > > > > > people<br>
> > > > > > > > > who<br>
> > > > > > > > > care<br>
> > > > > > > > > about fly and people who care about keg at this point<br>
> > > > > > > > > (though<br>
> > > > > > > > > there<br>
> > > > > > > > > are some people who care about fly and not so much<br>
> > > > > > > > > keg,<br>
> > > > > > > > > like<br>
> > > > > > > > > Lee<br>
> > > > > > > > > and<br>
> > > > > > > > > Tom - sorry), so I'm sending this to this list.<br>
> > > > > > > > >       I have a new 32TB 14+2 RAID6 with 24GB of RAM<br>
> > > > > > > > > superfast<br>
> > > > > > > > > (way<br>
> > > > > > > > > faster than gigabit) keg all ready to go! I would<br>
> > > > > > > > > like to<br>
> > > > > > > > > bring<br>
> > > > > > > > > it up<br>
> > > > > > > > > on Monday, June 22nd. It would be ideal if rendering<br>
> > > > > > > > > was<br>
> > > > > > > > > NOT<br>
> > > > > > > > > happening<br>
> > > > > > > > > at that time, to make my rsyncing life easier :) Any<br>
> > > > > > > > > objections?<br>
> > > > > > > > >       -Josiah<br>
> > > > > > _______________________________________________<br>
> > > > > > Clusterusers mailing list<br>
> > > > > > <a href="mailto:Clusterusers@lists.hampshire.edu">Clusterusers@lists.hampshire.edu</a><br>
> > > > > > <a href="https://lists.hampshire.edu/mailman/listinfo/clusterusers" rel="noreferrer" target="_blank">https://lists.hampshire.edu/mailman/listinfo/clusterusers</a><br>
> > > > > _______________________________________________<br>
> > > > > Clusterusers mailing list<br>
> > > > > <a href="mailto:Clusterusers@lists.hampshire.edu">Clusterusers@lists.hampshire.edu</a><br>
> > > > > <a href="https://lists.hampshire.edu/mailman/listinfo/clusterusers" rel="noreferrer" target="_blank">https://lists.hampshire.edu/mailman/listinfo/clusterusers</a><br>
> > > > _______________________________________________<br>
> > > > Clusterusers mailing list<br>
> > > > <a href="mailto:Clusterusers@lists.hampshire.edu">Clusterusers@lists.hampshire.edu</a><br>
> > > > <a href="https://lists.hampshire.edu/mailman/listinfo/clusterusers" rel="noreferrer" target="_blank">https://lists.hampshire.edu/mailman/listinfo/clusterusers</a><br>
> > > _______________________________________________<br>
> > > Clusterusers mailing list<br>
> > > <a href="mailto:Clusterusers@lists.hampshire.edu">Clusterusers@lists.hampshire.edu</a><br>
> > > <a href="https://lists.hampshire.edu/mailman/listinfo/clusterusers" rel="noreferrer" target="_blank">https://lists.hampshire.edu/mailman/listinfo/clusterusers</a><br>
> > _______________________________________________<br>
> > Clusterusers mailing list<br>
> > <a href="mailto:Clusterusers@lists.hampshire.edu">Clusterusers@lists.hampshire.edu</a><br>
> > <a href="https://lists.hampshire.edu/mailman/listinfo/clusterusers" rel="noreferrer" target="_blank">https://lists.hampshire.edu/mailman/listinfo/clusterusers</a><br>
><br>
> _______________________________________________<br>
> Clusterusers mailing list<br>
> <a href="mailto:Clusterusers@lists.hampshire.edu">Clusterusers@lists.hampshire.edu</a><br>
> <a href="https://lists.hampshire.edu/mailman/listinfo/clusterusers" rel="noreferrer" target="_blank">https://lists.hampshire.edu/mailman/listinfo/clusterusers</a><br>
_______________________________________________<br>
Clusterusers mailing list<br>
<a href="mailto:Clusterusers@lists.hampshire.edu">Clusterusers@lists.hampshire.edu</a><br>
<a href="https://lists.hampshire.edu/mailman/listinfo/clusterusers" rel="noreferrer" target="_blank">https://lists.hampshire.edu/mailman/listinfo/clusterusers</a><br>
</div></div></blockquote></div><br></div>