Jump to content
Geeks Nation Forums

Silverbolth

Members
  • Content Count

    163
  • Joined

  • Last visited

Everything posted by Silverbolth

  1. Nop, les controle de chauffage sont juste a cotéhttp://img803.imageshack.us/img803/5422/img20110525114931.jpg ... Salut Y'a toujours moyen de faire quelque chose, mais ça l'implique de faire venir une pièce de Chine (le contour du Radio) et de relocaliser les contrôles du HVAC en bas. J'ai fait ça dans mon Ralliart l'an passé Firsthttp://img716.imageshack.us/img716/6536/76732012.jpg[/img] firsthttp://img818.imageshack.us/img818/839/89963246.jpg[/img]
  2. 1 des 2 DVI est branché "en série" avec le HDMI.... donc, tu dois brancher tes écrans DVI - DVI - DP ou HDMI - DVI - DP ou DVI/HDMI - DP -DP woilà
  3. Silverbolth

    Vmare esxi

    À ma job on utilise ça aussi, et on a pas nécessairement la plus grosse des machine et ça roule vraiment très bien! spec du serveur: Xeon X5667 3.06 Ghz, 12m cache 16 GB de ram (4x2GB), 1333 Mhz 4x 146 GB 15k rpm Bon ok, on est environ seulement 25 utilisateurs sur le réseau, mais ça marche super bien! Pis comme tout le monde à dit, le GROS avantage c'est si jamais ton hardware plante, tu fout ton image de ton VMware sur une autre machine qui n'a pas du tout les même composante et ça marche super bien aussi!
  4. c'est vrai que le blanc y'es beau, pis tu voit tellement plus les belles lignes de la carrosserie mon noir, y'es beau 2 minutes après que je l'ai lavé, mais batard qui reste pas propre longtemps! La mazda avec les mags de speed est vraiment nice!
  5. Lancer Ralliart 2006 - 2.4 Mivec MT ~ 100 000 km autohttp://img403.imageshack.us/img403/8172/autoiu.jpg[/img]
  6. En fait, c'est un "launch control"... permette de criss le pied dans le fond sur la pédale à gaz et le launch control s'organise à garder le moteur à la même révolution RPM, jusqu'à temps que tu lâche la clutch
  7. La seule raison qui pourrait pousser le quartz à ne pas vibrer à la même fréquence c'est le courant qui passe au travers.... so, c'est soit la batterie ou le circuit qui amène le courant de la batterie au quartz... Par contre, j'avoue que c'est l'inverse d'habitude.... plus la batterie devient faible, moins le quartz vibre = horloge plus lente... alors ça me surprendrait que ça soit ça!
  8. Vous avez probablement déjà vu ces films là.... mais.... C'est quand je vois ça que je me dis qu'ils devraient vraiment faire des films.... http://us.starcraft2.com/dominion/
  9. Le gros problèmes avec les douanes avec Fedex et UPS c'est qu'en plus de vous facturer le dédouanement, ils vous charge un montant pour effectuer le dédouanement... Donc, vous vous retrouvez à payer un courtier de chez-eux en dédouanement ainsi que le prix des douanes. Généralement, c'est leur courtier qui coûte le plus cher... USPS/poste canada ne vous charge que le prix des douanes. De plus, vous pouvez utiliser Fedex ou UPS et leur demander de dédouaner vous-même votre colis... quelqu'un qui veut prendre le temps de le faire, peut sauver de l'argent comme ça.
  10. j'préfere ça comme simulateur un peu moins intense dans les mouvement, mais un peu plus réaliste!
  11. Faut avoir de bon yeux !nan, on s'habitue vite, l'écran est native en 1080pavant j'étais en 1280 x 960 sur une 17" cathodique
  12. Ouin, mais l'update n'était pas seulement de permettre l'utilisation du CF tout en utilisant le eyefinity? Parce que si je me rappelle bien, le eyefinity ne supportait pas le CF, ou du moins, très mal (la 2e carte n'était pas ou peu utilisait) Je ne me rappelle pas d'avoir lu nul par que le CF permettait d'utilisé les sorties vidéos des DEUX cartes à la fois... Parce que si on suit cette logique, sa voudrait dire qu'on pourrait utiliser TOUTES les sorties vidéos présentes dans un Tri-CrossFire :/
  13. Vous êtes sur??? Si je ne me trompe pas, pour faire du eyefinity, Il faut ABSOLUMENT que TOUTES les écrans soient branchées sur UNE seule carte graphique.... Donc, même si vous faite un CF de DEUX HD58XX, qui elles ne supportent que 3 écrans chacune, votre eyefinity ne supportera que 3 écrans.... :/
  14. Merci Bou pour les explications :friends:
  15. Je regarde les SSD du coin de l'œil depuis un bon bout de temps, mais j'ai une petite questionQuestion stupide : Étant donné qu'il y a 2 SSD de 60 gig dans 1 drive, est-ce que ça double les risques de défectuosité? Genre que si un des deux SSD plante pour une raison que j'ignore, est-ce que le SSD devient inutilisable au complet??? ou si on perd "juste" 60 gig de data? je ne regarde pas pour m'acheter celui-là, mais d'ici un bout de temps, je veux changer le disque dur de mon laptop pour un SSD.
  16. On lit pas les mêmes tests? Ils sont supérieurs partout actuellement.Partout sauf pour les prix et les watts... ce qui compte également à mes yeux. Très satisfait de mon HD5770 Vapor-X, peut-être qu'à Noël je songerai à changer, comme j'avais initialement prévu... Meilleur de quelques pourcentages ET coût plus chère.... et ce sont des cartes qui datent déjà de 6 mois.... Le seul endroit où ils sont très mais très bon, c'est les 480 en SLI. Là les deux cartes performent très bien, mais pour le prix, ça fait mal (environ 1000$ US) Moi j'ai surtout hâte de voir la réaction d'AMD... Vont-ils baisser les prix des cartes actuelles, ou vont-ils laisser les prix comme ils sont présentement.... Car il faut l'avouer, les nouvelles cartes de Nvidia ne forcent malheureusement pas AMD à faire quoi que ce soit présentement.... surtout qu'il n'y aura pas énormément de cartes avant la fin d'avril début mai (ça c'est mauvais pour les gamers.... ) PS. avez-vous vu des vidéos des cartes en fonction??? c'est fou le bruit des fans maintenant!!!! va falloir que les constructeurs revoie leur façon de refroidir leur GPU, car ça devient malade le bruit qui sort de ces bête-là!
  17. ça dépendait toujours de quel modèle tu avais... moi j'avais un SB Live! Value qui n'était que 4.1 et j'ai ensuite eu une SB live! 5.1.... qui comme dit le nom, fait du 5.1
  18. Voici les specs que moi j'ai trouvé sur un autre site j'imagine qu'il va vraiment falloir attendre au 26 mars pour avoir quelque chose de concret....
  19. La réponse, OUILe seul moyen de toute façon d'avoir trois écrans avec les GTX4xx sera d'en avoir 2 en SLI (chaque carte peut driver 2 "seulement" écrans) (j'ai mis le seulement entre guillemet car c'est pas nécessairement un problème)
  20. Personne n'a dit que Nvidia est sur le bord de la faillite...Deuxièmement, oui ATI a eu de la difficulté avec certaines architectures de core (en fait, tout ce qu'il ont sorti après la R300 et avant la RV770 si ma mémoire est bonne).... mais on doit avouer qu'avec les HD 5xxx, ils ont fait de le mille comme dans le temps avec la Radeon 9700. Des cartes excellentes niveau performance/prix et des drivers très honnête côté stabilité... (je dis honnête car ils ne sont vraiment pas parfait encore) Troisièmement, à mes yeux, la carte n'est vraiment pas un bijoux de technologique... Elle l'auraient été si elle fonctionnerait parfaitement, ou du moins, si elle serait aussi performante qu'elle aurait du l'être... Là présentement, on est fasse à une puce graphique très grosse, qui semble avoir des ratés dans son design. Pour pallier à ses ratés, Nvidia doit augmenter la vitesse du GPU au maximum pour "atténuer" les lacunes... le seul problème c'est qu'étant-donné que la puce graphique est très grosse, elle chauffe déjà beaucoup. Augmenter les fréquences du GPU, vous tombez avec une Puce qui devient instable. Vous devez donc augmenter le voltage. Vous vous retrouvez donc avec une Puce qui consomme plus d'énergie, qui chauffe énormément, qui dépasse les specs en wattage du port PCIe MAIS qui performe semblablement avec la concurrence.... Alors dit moi, est-ce un si beau bijou que ça? Un design extraordinaire sur papier c'est toujours beau, mais si la réalité n'accote pas le design papier ou du moins n'est pas semblable au design papier, et bien ce n'est pas une réussite. woilà
  21. larabee pour l'instant c'est mort dans l'oeuf.... Beaucoup d'Argent mis dans le projet et ça l'aire vraiment intéressant, mais on dirait qu'intel n'en fait pas une priorité.... même on dirait que c'est le dernier de leur soucis.... étrange Ati à l'avantage de travailler avec des design de core de GPU beaucoup plus petit et moins gourmand niveau électricité (avec la dernière génération HD 5xxx) que Nvidia.... Je sais pas si vous avez suivie les dernières nouvelles avec fermi... mais le GPU serait semble-t-il immense et serait capable de bouffer toute l'énergie d'une centrale nucléaire... Ce qui veut dire que ça va être très difficile de simplifier et de rapetisser le tout pour le rendre plus compact pour les prochaines versions future... Une de leur seule solution va être la finesse de gravure... mais encore là, on dirait qu'ils se sont beaucoup compliqué la vie.... et ce n'est que le début de cette nouvelle architecture... Et vous avez totalement raison, Nvidia a sorti 3 générations de cartes graphique avec la même architecture.... quelqu'un peu me dire ce qu'ils ont fait dans le département du R&D pendant tout ce temps??? Disons juste que c'est mauvais lorsqu'un des deux plus gros producteur de cartes graphique fonctionne moins bien... les prix baisses moins vite lol!
  22. tout a fait d'accord. Je me moquais un peu de Nvidia mais ils ont toujours été capable de faire des miracles avec leurs drivers... le seul hic dans le cas présent, c'est les prix auxquels ils vont tenter de vendre leur cartes par rapport à la concurrence....
×
×
  • Create New...