Prestone 0 Posted December 8, 2010 Pour une fois qu'on est d'accord avec 1o80b, on va faire un X sur le calendrier! Share this post Link to post Share on other sites
Boulard83 4 Posted December 8, 2010 Pour une fois qu'on est d'accord avec 1o80b, on va faire un X sur le calendrier! LOLLL Share this post Link to post Share on other sites
dnLL 0 Posted December 8, 2010 (edited) je suis d'accord avec toi pour les 2GB Boulard mais comme tu en fais mention, c'est pas si évident à acotté sur ton setup et j'ai quand même un 15% de moins de pixels à afficher (et ça ça parait pas mal sur les perfs/FPS). par curiosité, avec quoi vérifies-tu combien de ram vidéo tu utilises? j'ai jamais vu (ou recherché) de prog qui le montrait. sinon, si on regarde les cartes que j'ai eues jusqu'à maintenant... 9600 Pro 8600GT GTS250 HD5770 HD6870 GTX460 SLI j'pense qu'à chaque étape, j'ai un peu monté de gamme. je me contentais de très peu dans le temps de ma 8600GT et de ma GTS250. or, depuis que je suis sur 3 moniteurs (HD5770), j'ai monté de gamme un peu et de prix à chaque changement. Ma HD6870 est suffisante en perf actuellement bien qu'elle ne runne pas tout au max en Eyefinity. mais ça me suffit. mais dans ma tête, ça n'a toujours été qu'un achat temporaire, parce que je voulais profiter de Cuda, parce que je voulais encore faire rouler mes vieux jeux et parce qu'AMD n'a jamais réglé son fichu flicking (en plus du idle en Eyefinity). j'ai vendu ma HD5770 au moment parfait, juste avant qu'elle commence à perdre de la valeur et sur ma HD6870, je vais à peu près rien perdre, surtout si je la vends localement (ou même sur eBay, les pièces d'info sont tellement chères, on est choyé en Amérique). et perso, je déteste les drivers d'ATI/AMD. normalement, je m'en fous pas mal, parce que je ne les ouvre qu'une fois, c'est-à-dire après les avoir installés. et c'est vrai aujourd'hui aussi, mais bon, je les sais présents sur le système et ça me tape sur la conscience lol à 222.48$ la pièce en combo avec la clé USB OCZ de 8GB gratuite, la Gigabyte SOC peut difficilement me décevoir. seule, elle est légèrement en retrait par rapport à ma HD6870, mais en SLI, y'a pas photo (comme diraient les français). j'pense que les 10$ de plus pour ce modèle là valent le coup, tous les reviews la qualifient comme la meilleure GTX460 avec des températures meilleures que la majorité des cartes et un bruit inférieur à la majorité des cartes en load (inaudible en idle) malgré le fait que c'est le plus O/C d'origine qui se fait sur une GTX460. évidemment, elle monte plus haute que ces conjoints également quand on l'O/C manuellement, Gigabyte sélectionne les meilleurs GPUs pour ses modèles et offre un bon refroidissement. Edited December 8, 2010 by dnLL Share this post Link to post Share on other sites
dnLL 0 Posted December 8, 2010 pour ajouter à ce qui disait Boulard.. GTX460 SLI 1GB vs 2GB. en Eyefinity, ça ressemblerait au 2560x1600 mais en un peu pire. or, je ne suis pas sûr de nécessairement exploiter les rares cas où ça fait une différence (AAx8 dans certains jeux gourmands). Share this post Link to post Share on other sites
Boulard83 4 Posted December 8, 2010 (edited) Par curiosité, avec quoi vérifies-tu combien de ram vidéo tu utilises? j'ai jamais vu (ou recherché) de prog qui le montrait. MSI afterburner ! On screen et sur mon G15. Edit : 2560x1600 = 4096000 pix 5040x1050 = 5292000 pix Edited December 8, 2010 by Boulard83 Share this post Link to post Share on other sites
dnLL 0 Posted December 8, 2010 ouep, ~20%, c'est pas si mal. c'est évident que ça parait dans certaines occasions... mais par rapport à ma seule HD6870 et ma HD5770 dont je me suis contenté pendant 1 an.... s'pas si mal lol? et j'avais Afterburner avant de reformater mais j'avais pas vu. je verrai quand j'aurai de nouvelles cartes graphiques. Share this post Link to post Share on other sites
Boulard83 4 Posted December 8, 2010 Je ne suis pas vraiment tombé face à un mur avec mon setup de GTX460 et la résolution. Mais c'était souvent limite avec des jeux comme Metro 2033 ( que je n'ai pas encore essayer avec mes GTX580. ) Share this post Link to post Share on other sites
1o80B 0 Posted December 9, 2010 Je ne suis pas vraiment tombé face à un mur avec mon setup de GTX460 et la résolution. Mais c'était souvent limite avec des jeux comme Metro 2033 ( que je n'ai pas encore essayer avec mes GTX580. )Metro 2033 est le Crysis de 2010.Superbe mais vraiment fucking mal optimisé. Share this post Link to post Share on other sites
dnLL 0 Posted December 9, 2010 ouep, et c'est toujours avec 15% plus de pixels enfin bon... je vais les commander. Share this post Link to post Share on other sites
dnLL 0 Posted December 10, 2010 Boulard, j'ai une question. je crois que tes 580 ne sont pas encore watercooled et tu as 3 moniteurs de branchés, right? peux-tu me dire avec GPU-Z si la carte se downclock en idle? si oui, j'aimerais avoir les 3 fréq en idle/load et tes températures des deux cartes dans les deux situations (t'as ben dû posté ça ailleurs mais j'ai rien vu). et pour tes 460 si tu te rappelles. Share this post Link to post Share on other sites
Boulard83 4 Posted December 10, 2010 Oui elles se downclock sous les 100mhz ( 51mhz je pense, je ne me rappel plus ) Il y à aussi un stade 2d 405mhz. Même sous WOW, dans une instance si je ne bouge pas et que les mur ni rien ne bouge, parfois je tombe en mode 405mhz tant que je ne bouge pas. Stock Idle : ~45°c Stock Load : ~77°c WC Idle : ~31°c WC Load : ~50°c Share this post Link to post Share on other sites
dnLL 0 Posted December 10, 2010 voilà qui répond, c'est merveilleux puisque c'est ce que je recherchais. je suppose que c'est pareil pour le GF104 sur les GTX460 (j'imagine que tu parlais de ta 580 ci-haut et son GF110). j'ai lu que la carte avait 3 modes normalement, soit performance, écono et un entre les deux, ce qui correspond à ce que tu dis. disons que je veux pas investir 200$ seulement pour me débarasser du flicking.. en SLI, la carte du haut va chauffer, surtout sur ma R3F. à ce sujet, puisque tu as une R3F aussi, tu les colles tes cartes ou tu prends le 8x plus bas? j'ai lu que ça ne faisait presque aucune différence alors la question se demande (quoique sur une GTX580..). les températures que tu m'as données c'est pour le GPU du haut? Share this post Link to post Share on other sites
dnLL 0 Posted December 10, 2010 HD5850 pour mon 2e desktop. c'est définitivement le "PC des deals". 80$, flambant neuve, une XFX avec le cooling de la marque. le gars a commandé une HD6850 le lendemain et il était trop tard pour annuler la 5850, il l'avait partie à 250$ et puis, 2 mois plus tard, il était rendu à 80$ alors j'ai sauté sur l'occasion. j'ai revendu le HD5750 50$, ce qui donne un investissement de 30$ qui je crois vaut quand même la peine. c'est du 1600x1200 qui roule dessus, un beau CRT 19" qui pourrait à la limite faire de la 3D avec les lunettes (il faut du 120 Hz en 800x600 lol). j'prendrai des photos de c'te budget build là à un moment donné avec les coûts totaux..... c'est débile comment ça n'a rien coûté pour un AMD X4 avec une 6850 et tout le reste autour qui suit bien. Share this post Link to post Share on other sites
Boulard83 4 Posted December 10, 2010 Pour être en x16 x16 sur une R3F c'est le slot du haut et le dernier. Celui du milieux est x8. ( Ouvre ton manuel page 2-29 ) Oui les GTX460 faisait la même chose. idle @ ~50mhz Share this post Link to post Share on other sites
dnLL 0 Posted December 10, 2010 Pour être en x16 x16 sur une R3F c'est le slot du haut et le dernier. Celui du milieux est x8. ( Ouvre ton manuel page 2-29 ) Oui les GTX460 faisait la même chose. idle @ ~50mhz Ouf j'aurais dû lire le manuel en effet!Tu viens d'me rassurer... les températures des 2 GPU doivent être un peu plus similaires (bien que le principal chauffera toujours plus). Share this post Link to post Share on other sites
Boulard83 4 Posted December 10, 2010 (edited) J'avais environ 5°c de différence entre mes 2 GTX580. Maintenant c'est à peine 1°c EDIT : C'est bel et bien 51mhz Idle. Edited December 10, 2010 by Boulard83 Share this post Link to post Share on other sites
dnLL 0 Posted December 10, 2010 J'avais environ 5°c de différence entre mes 2 GTX580. Maintenant c'est à peine 1°c EDIT : C'est bel et bien 51mhz Idle. Merci!En passant mon problème de freq cpu fucké sous cpuz est réglé depuis le formatage. Il voit le cpu se downclocker a 2.4 comme il faut. Share this post Link to post Share on other sites
Boulard83 4 Posted December 10, 2010 J'avais environ 5°c de différence entre mes 2 GTX580. Maintenant c'est à peine 1°c EDIT : C'est bel et bien 51mhz Idle. Merci!En passant mon problème de freq cpu fucké sous cpuz est réglé depuis le formatage. Il voit le cpu se downclocker a 2.4 comme il faut. De rien ! Superbe Share this post Link to post Share on other sites
dnLL 0 Posted December 12, 2010 Encore une question pour toi Boulard... je suis à peu près prêt pour commander mes GTX460, elles sont pricematched dans le panier avec deux cadeaux pour ma blonde. Comme on est dimanche, j'attends ce soir. Sauf que là, je suis tombé sur quelques histoires d'horreur sur Surround, alors rassure moi LOL. Avec ATI, sous le CCC, on peut disposer plusieurs profiles. Par exemple, un profil Eyefinity avec notre méga-résolution, et un autre profile pour mettre les 3 écrans indépendamment. Le CCC est capable de savoir quel écran va où dans les deux profils et on peut faire le switch à l'aide d'un simple raccourci clavier. Comme ca, quand je joue, je presse mon raccourci clavier pour switcher de res; quand j'ai fini, je refais la même chose. Ça permet d'agrandir efficacement les fenêtres dans Windows et etc. Est-ce que ça fonctionne bien avec les drivers nVidia aussi? J'ai lu des histoires qui datent d'un mois ou deux sur certains forums où on racontait que les drivers nVidia étaient à chier. Plus que les performances et les degrés en moins, mon passage chez nVidia avait également pour but l'utilisation de meilleurs drivers (pas de flickering weird ou de truc de même) et de CUDA. Par contre si les drivers ne sont pas du tout au point, c'est complètement une autre histoire. En tout cas, les histoires que je lisais semblaient avoir un rapport avec le branchement d'un 4e moniteur indépendant pour du monitoring, ce qui ne risque pas de m'arriver de sitôt avec le setup que j'ai là. Simplement, rassure-moi un peu sur le fonctionnement à trois écrans (identiques en ce qui me concerne). J'veux pas m'fourrer sur ce coup-là pour retourner chez AMD dans 2 mois quand une Vapor-X digne de nom sortira dans le très haut de gamme... Share this post Link to post Share on other sites
Boulard83 4 Posted December 12, 2010 (edited) À ce sujet je ne pourrait dire ... personellement je suis toujours en "spanning" sur 3 écran. mon Chrome est de la grandeur de mon cran du centre, mes autres fenêtre aux alentour. Je ne suis jamais en fullscreen avec mes fenêtres. Donc malheureusement je ne peux t'aider sur ce point ! Mais c'est très rapide de changer via Nvidia control panel. Quand je roule 3dmark11 je dois enlever mon surround. Ça prend 3 seconce l'enlever et le remettre mais je ne sais pas si c'est possible de faire des profiles. Pour le reste, je n'ai jamais eu de flickering au autres. Mes 2 seul bug à ce jours sont avec 3dmark11 qui ne fonctionne pas encore en surround et WOW qui plante quand je suis en flightpath. Pour wow c'est assez simple je ne fais que retourner en 1920x1080 avant de prendre un FP et vice versa.... Pour 3Dmark11, j'enlêve mon spanning avant de le rouler. Sinon, ZERO bug à ce jour. Edit : Ça ressemble à ceci. Edited December 12, 2010 by Boulard83 Share this post Link to post Share on other sites
dnLL 0 Posted December 12, 2010 C'est effectivement rapide à changer puisque ce n'est qu'un bouton radio si j'ai bien vu? Mais le pilote se rappelle bien de la disposition des 3 écrans entre les deux setups? Genre qu'il les met aux bons endroits quand tu switch? Si au moins ça c'est correct, c'est ça de gagner. Parce que y'a un problème avec le fait de rester en méga-résolution dans Windows. Les films en fullscreen. Je suis en 1680x1050. Les films Full HD se ramassent à dépasser un peu et c'est très laid. J'ai donc pas le choix de rendre les écrans indépendants en Windows. Je doute que VLC supporte des solutions tierces comme certains drivers Matrox qui permettent de faire un peu comme HydraVision (soit de faire une certaine grille pour quand on maximise les fenêtre). Share this post Link to post Share on other sites
Boulard83 4 Posted December 12, 2010 Mon utilisation est BIEN différente de la tienne. J'écoute mes films dans mon salon. Pour mon utilisation je n'ai rien à changer avec le spanning. Share this post Link to post Share on other sites
dnLL 0 Posted December 13, 2010 Bon, un rep de nVidia sur leurs forums semblait dire qu'il y aurait quelque chose de plus approprié en début 2011 pour la gestion des fenêtres. Quoiqu'il en soit, j'ai essayé Matrox Powerdesk avec mon setup Eyefinity et ça fonctionne plutôt bien en général. Y'a que VLC/PowerDVD pour les films qui ne sont pas 16:10 qui font en sorte que ça plante. D'ailleurs, PowerDVD exige la désactivation d'Eyefinity lors de la lecture d'un Blu-Ray (je suppose que c'est pareil avec Surround). Autrement, il dit que la machine n'a pas les drivers appropriés... Il y a sûrement un autre lecteur que VLC qui permet de faire un zoom out en 16:10 pour n'afficher que sur le moniteur central. Le problème demeurera pour les Blu-Ray mais encore là, c'est un peu une question de drivers. nVidia a déjà annoncé quelque chose pour début 2011 concernant la gestion des fenêtres en Surround. J'imagine que comme tous les outils actuels (PowerDesk, Hydravision ou autre) le fullscreen ne sera pas bien géré. Peut-être faudra-t-il attendre Windows 8. Je me demande si je ne devrais pas brancher mon 3e moniteur en HDMI. Contrairement au DVI, les drivers semblent réagir au branchement d'un câble HDMI en activant ou désactivant immédiatement le moniteur en question (alors qu'en DVI, le moniteur reste actif même s'il est éteint). Lorsque je débranche mon moniteur DP actuellement, le CCC me reconfigure ça en 2x1680x1050 et réactive Eyefinity lorsque je réouvre l'écran DP. Disons que de ce côté-là, c'est assez fonctionnel. Share this post Link to post Share on other sites
Boulard83 4 Posted December 13, 2010 Jsuis full DVI et mes moniteurs s'éteingne s'ils ne sont pas utilisé ( quand je game en 1920x1080 ). Share this post Link to post Share on other sites
dnLL 0 Posted December 14, 2010 Défaut chez AMD alors. Il ne se rend pas compte lorsque les écrans DVI sont fermés. Ou ben y'a une option qqpart. Share this post Link to post Share on other sites