Страница 3 от 6 ПърваПърва 12345 ... ПоследноПоследно
Резултати от 31 до 45 от общо 87

ATI пак мачкат а nVidia пак "оптимизирват"

Сподели във Facebook Сподели в Twitter Изпрати на Email Сподели в LinkedIn
  1. Member
    Тук е от
    Jan 2003
    Мнения
    175
    #31

    ATI пак мачкат а nVidia пак "оптимизирват"

    Къде съм я възхвалявал? Напротив, и аз съм на мнение, че не я биваше много... Просто се случи съседната машина да е точно с нея, та да покаже колко зле е всъщност OpenGL на 3dfx. По-зле ДОРИ И от нея.



    За цените на Voodoo: сам го казваш, $200 за Voodoo 2, по две прави $400 за SLI. Пък и техните планове за четирипроцесорни платки до голяма степен оправдаха скока на цените на High-end картите.


  2.  
     
  3. Member
    Тук е от
    Dec 2000
    Мнения
    873
    #32

    ATI пак мачкат а nVidia пак "оптимизирват"

    <blockquote id="quote"><font size="1" id="quote"><b id="quote">quote:</b id="quote"></font id="quote"><table border="0" id="quote"><tr id="quote"><td class="quote" id="quote"><font size="1" id="quote">... KOKOSH, аз лично за мен си имам теория как се пишат драйверите на АТИ. Първо се гледат най-скъпите и непродаваеми карти и се гледа да няма проблем с игрите, останалите ниши (средна и ниска) да ги духат ако искат. Я си вземи едно 9000 или 9100 и да те питам с колко игри няма да имаш проблеми. Не мисля, че разправям празни приказки, кой не е чел тук във форума за проблемите на притежатели на АТИ от ниският и средният ценови клас....

    <div align="right">Originally posted by LUDIA - 09/05/2004 : 03:35:23</div id="right">

    </td id="quote"></tr id="quote"></table id="quote"></blockquote id="quote"><font size="2" id="quote"></font id="quote">



    Никога не съм имал карта от ниския или средния клас, играя игри



    <blockquote id="quote"><font size="1" id="quote"><b id="quote">quote:</b id="quote"></font id="quote"><table border="0" id="quote"><tr id="quote"><td class="quote" id="quote"><font size="1" id="quote">Радеон са доста зле и с DX да не говорим ако дигнеш малко резолюцията и гамата да речем

    Пусни си UT2004 с по-висока резолюия и на "masterful"...като се съберат повече ботове издъхва радеона а не задклавиатурното устройство



    <div align="right">Originally posted by kafka - 08/05/2004 : 07:16:53</div id="right"></td id="quote"></tr id="quote"></table id="quote"></blockquote id="quote"><font size="2" id="quote"></font id="quote">



    Тва на някой атлон ли го видя. Защото при мен радеона ми отнесе клокнато фх5900хт и то категорично... ботовете не товарят видеото а процесора [] Имай в предвид, че Unreal във всичките и нови модификации се води "атлонолюбива" а и разработчиците получават пари от Нвидиа (справка - логото в началото). Що не даде за пример, да речем, Far Cry, там разликата в производителността е към 100% отгоре в полза на радеоните ...[:D]



    <blockquote id="quote"><font size="1" id="quote"><b id="quote">quote:</b id="quote"></font id="quote"><table border="0" id="quote"><tr id="quote"><td class="quote" id="quote"><font size="1" id="quote">За цените на Voodoo: сам го казваш, $200 за Voodoo 2, по две прави $400 за SLI.....



    <div align="right">Originally posted by barnie - 09/05/2004 : 15:38:50</div id="right">

    </td id="quote"></tr id="quote"></table id="quote"></blockquote id="quote"><font size="2" id="quote"></font id="quote">



    Това са глупости, моето voodoo2 го взех 2 месеца след като дойде в БГ точно за 120$, картите за които говорите че "мачкали" voodoo2 излезнаха година и половина след това, стига смешки пичове []

  4. Senior Member
    Тук е от
    Mar 2001
    Мнения
    1,449
    #33

    ATI пак мачкат а nVidia пак "оптимизирват"

    Кокош май френд!!....недей с лошо![:D]

    Земи си редакрирай поста ПЛС,че тука ме заболя корема[:D]

    Ати никога не е била по добра е НВидия,на моменти теоретично да,но игрово никога досега:миналата година от Ма3х6 такъв рев нададоха от 9700 гигадръв радеоните,че чак в Малашевци ги чуха:хайде посмей да им ги хвалиш[:D]

  5. Member
    Тук е от
    Dec 2000
    Мнения
    873
    #34

    ATI пак мачкат а nVidia пак "оптимизирват"

    Къде видя лошо бре []

    9700про си иска процесор над 3.2 гхз за интел и над 2300 реални амд mhz за да работи ефективно, съмнявам се че в гейм зала се доближават дори на 60% от това...

  6. Senior Member
    Тук е от
    Mar 2001
    Мнения
    1,449
    #35

    ATI пак мачкат а nVidia пак "оптимизирват"

    Незнам какво иска,но ня тоя етап за мен Ати си остава една напълно глупава покупка:докато ти пиша това в машинката ми има един Сапир 9800Про 128,клиентки...сори,ама лубимата ми ССам 2 изглежда ужасно,къв е тоя мипмап е.. ли му мамата...Тииф 3 демото не ще и да тръгне,а странно за мен тъпия КС къса пред 20-30 секунди яко под OGL,а тоя праска КС здраво,и утре като му го дам ше ревне до небесата



    Стотици Атита са ми минавали през ръцете,всякакви,дори ахааа да взема мионалата година за себе си едно 8500 ВИВО и като ми се осере някъде така направо ми се къса сърцето[:D]



    Хората не са виновни,и драйверите им са добри....просто стандартите се налагат от НВидия,същото важи и за Интел Амд

  7. Member
    Тук е от
    Dec 2000
    Мнения
    873
    #36

    ATI пак мачкат а nVidia пак "оптимизирват"

    Е защо при мен ССам 2 СЕ на радеона ми изглежда еднакво с нвидиа 5900...и нито една игра не ми насича дори за миг, опенгл или дх.... ти на какво ги слагаш тия видеокарти бре, на атлони 1800+ с виа чипсет и 512 рам ли Съмнявам се че си толкова зле да не можеш да настроиш една машина, просто имаш поръчки за бюджетно ориентирани компове



    Ъъъ, не трябва да насича КС дори на спомената от мен low-end конфигурация, това при онлайн игра или? Коя версия на КС? Кажи каква е конфигурацията? С какви драйвери за видео и чипсет? Треа да го преборим

  8.  
     
  9. Senior Member
    Тук е от
    Jun 2002
    Мнения
    1,176
    #37

    ATI пак мачкат а nVidia пак "оптимизирват"

    KOKOSH, ти задавал ли си си въпроса колко ГЕЙМЪРИ могат да си позволят HIGH-END видео карта ААААААААА!!! Бил си геймър, аз от 1996 година си геймя комп. игрици и да ти кажа чак преди 6 месеца успях да си купя 5600 на АСУС, а компа го направих миналата година по това време. Все карах на стари и low-end карти обаче геймех. Така, че не ми скачай с това, че си геймър, ако беше истински геймър щеше да знаеш какво е!!! 90% от играещите игри са с low-end карти.

    Сравнявам цените по онова време когато излезе VOODOO, тогава за UNREAL трябваше да се купи най-новата машина в залата отидоха 1300$ за нея-Целерон на 400, АСУС дънце ВХ, 128 МБ рам и VOODOO 1. Така, че ако сложим сега тези пари от тогава ще са еквивалентни с днешните цени, следователно тогава си беше доста пари.

  10. Member
    Тук е от
    Jan 2003
    Мнения
    270
    #38

    ATI пак мачкат а nVidia пак "оптимизирват"

    Kokosh, дали наистина ботовете в UT2004 товарят само процесора. Текстури по тях няма ли?

    BTW LUDIA е прав.

  11. Member
    Тук е от
    Jan 2003
    Мнения
    175
    #39

    ATI пак мачкат а nVidia пак "оптимизирват"

    Хайде да дообясня, че май съвсем не сте разбрали защо се зачепнах за това Voodoo. Всичко си е съвсем по темата.



    Май всички сме съгласни, че първите карти на 3dfx бяха най-добрите едно време. Аз твърдя и съм абсолютно сигурен, че в OpenGL тези карти просто не ги биваше толкова, колкото в собствения им Glide.



    На какво тогава се дължи тяхната сила? На оптимизации, писани специално за тези карти и специално за играта, която поддържа Glide.



    Защо тогава плюем nVidia за тази маневра? Играта върви ли по-добре с оптимизациите? Дa. Има ли някаква промяна в качеството, т.е. жертваме ли нещо, за да върви по-добре? Имам достатъчно основания да твърдя, че отговора на този въпрос е Нe. Има ли значение какъв точно метод използва nVidia за да разбере, че играта е точно FarCry? Според мен има, защото същият добър ефект няма да сработи другаде. Но за нормалния геймър няма значение, така че при положение, че този подход е може би единственият възможен (прочети следващия параграф за да разбереш защо), абсолютно оправдавам специалните драйвери.



    Много се изписа преди време за тях. И по-точно за спора между MadOnion (3DMark 2003) и nVidia за това как трябва да се мери производителността на една карта. Луковите глави оправдаха името си, защото в крайна сметка защитиха една много вредна тенденция. Да се мерили картите как работят с неоптимизиран код, демек хайде да пишем неоптимизиран код. Така и става и от това губи кой? Всички ние.



    Защото в крайна сметка ще спрат да се правят карти, които са много бързи при подходящия код, и ще започнат да се правят карти, които са що-годе бързи при неоптимизиран код, но никога не могат да стигнат възможностите на първите.



    Както вече казах, всичкото това плюене спъва развитието и то сериозно.


  12. Senior Member
    Тук е от
    Aug 2002
    Мнения
    8,784
    #40

    ATI пак мачкат а nVidia пак "оптимизирват"

    Тук е безмислено да се спори с Ludia - той е единствения който познавам , който е сменил всички видео карти - и има най-компетентно мнение

    Barnie - oтносно интела една тъпа Vodoo Banshe 16 mb я отнасяше както си иска на какъвто ида е режим

    Две Водоота в SLi режим - определено отнасяха всяка интел и S3 видео карта

    да не говоря за последните масоеи модели 4500 и 5500 - бяха много по-добри , докато не излезе GF на Nvidia



    Така че като ще спорите - по-добре да имате малка представа ,ама лична не "чута " от някой дето не иска да си признае че се е набутал с някой интел 740 и нагоре

  13. Member
    Тук е от
    Jan 2003
    Мнения
    175
    #41

    ATI пак мачкат а nVidia пак "оптимизирват"

    Какво е това бе хора? Всички ми скачате на бой за това, че съм бил казал нещо лошо за 3dfx. Единственото, което твърдя, е че най ги биваше, когато играта СПЕЦИАЛНО е оптимизирана за тях.



    @Mr. Techno

    <blockquote id="quote"><font size="1" id="quote"><b id="quote">quote:</b id="quote"></font id="quote"><table border="0" id="quote"><tr id="quote"><td class="quote" id="quote"><font size="1" id="quote">

    Така че като ще спорите - по-добре да имате малка представа ,ама лична не "чута " от някой дето не иска да си признае че се е набутал с някой интел 740 и нагоре

    </td id="quote"></tr id="quote"></table id="quote"></blockquote id="quote"><font size="2" id="quote"></font id="quote">



    Мери си приказките, особено ако не знаеш с кого си имаш работа. Тук откровено ме обвиняваш в лъжа (всичко по-горе се отнася до мои наблюдения) и че "нямам малка представа". При по-сериозни обстоятелства бих могъл да те осъдя за горното изречение.

  14.  
     
  15. Senior Member
    Тук е от
    Jul 2002
    Мнения
    2,793
    #42

    ATI пак мачкат а nVidia пак "оптимизирват"

    <font color="purple">Този спор нещо започна много да се изостря. Призовавам всички да спазват правилата, да се придържат към темата и да избягват да отправят лични нападки към останалите.



    @Mr.TECHNO: Това, че ти признаваш само мнението на LUDIA за меродавно, не означава, че няма и други потребители, които може да са сменили и да познават от личен опит в детайли много от видеокартите, за които става дума.



    @barnie: Имай предвид все пак, че това е компютърен форум, т.е. едва ли ще успееш да осъдиш някого за писаното тук по ред причини. А ако искаш да знаем с кого си имаме работа, можеш да напишеш повече за себе си, макар че е в разрез с писаните и неписани правила тук.</font id="purple">

  16. Member
    Тук е от
    Jan 2003
    Мнения
    175
    #43

    ATI пак мачкат а nVidia пак "оптимизирват"

    Разбира се, че нямам намерение да съдя никого или да обяснявам с кого си имат работа.



    Но това съвсем не означава, че ще оставя без коментар неподготвени изказвания, които на всичко отгоре са лична обида срещу мен.

  17. Junior Member
    Тук е от
    Jul 2003
    Мнения
    110
    #44

    ATI пак мачкат а nVidia пак "оптимизирват"

    <blockquote id="quote"><font size="1" id="quote"><b id="quote">quote:</b id="quote"></font id="quote"><table border="0" id="quote"><tr id="quote"><td class="quote" id="quote"><font size="1" id="quote">...Защо тогава плюем nVidia за тази маневра? Играта върви ли по-добре с оптимизациите? Дa. Има ли някаква промяна в качеството, т.е. жертваме ли нещо, за да върви по-добре? Имам достатъчно основания да твърдя, че отговора на този въпрос е Нe. Има ли значение какъв точно метод използва nVidia за да разбере, че играта е точно FarCry? Според мен има, защото същият добър ефект няма да сработи другаде. Но за нормалния геймър няма значение, така че при положение, че този подход е може би единственият възможен (прочети следващия параграф за да разбереш защо), абсолютно оправдавам специалните драйвери.

    ...

    <div align="right">Originally posted by barnie*-*10/05/2004*:* 10:03:02</div id="right">

    </td id="quote"></tr id="quote"></table id="quote"></blockquote id="quote"><font size="2" id="quote"></font id="quote">



    Хайде и аз да се включа в този спор.. защото стана доста интересен.. а и бих казал поучителен!

    Не много отдавна nVidia анонсираха, че налагат нов стандарт при програмирането на видео картите и разбира се предложиха собствен език за програмиране (базиран на Си), само че към добавка на стандартните типове и операции (като int, char, float и простите аритметични операции) добавиха и други "примитиви" като матрица (в частност вектор) и операции по събиране, умножение, транспониране и т.н.. До тук чудесно, тъй като всяка карта според възможностите си може да реализира примитивни функции свързани с изчислението и изчертаването. Вероятно много от вас са забелязали в някой стравнителни тестове (където по компетентните автори) са отбелязали, че nVidia има едно голямо предимство, а именно че техните инструкции са препрограмируеми..

    Например ако искате да изчертаете един триъгълник и да го запълните с текстура то си има уравнения с които може да се извърши (сравнително лесно).. и разбира се за да работи тази примитивна функция (която драйвер-а трябва да я реализира) в общият случай, то тя трябва да бъде такава (бавна) която да може да изчертава правилно всякакъв вид триъгълници.

    (btw това е само една версия.. др. варианти биха могли.. например изчислението на много примитивни функции в един пас.. или чрез комбиниране или на принципа на кеширането. Друг вариант е в новият хардуер да се поддържа изчислението на даден примив с отделна, хардуерно реализирана функция..а в играта да използват "стар" метод, като разбиват този примитив на по-прости, което в даденият случай в погрешен, респективно бавен)

    И сега ако nVidia ако са "установили", че функциите които се използват в тази игра могат да бъде оптимизирани (по-правилно е да се каже препрограмирани) дадените примитивни функции.. то няма нищо лошо.. напротив..това е заложено в самият хардуер.. да може GPU-то да изпълнява инструкции, които са написани от програмистите.. (и виртуално да се поддържа ВСЕКИ DX който излезне...)

    Какво може да бъде едно обяснение на въпросният случай!?

    Първо работа е на фирмата производител да ОПТИМИЗИРА играта за да даден вид карти.. това може да НЕ се е случили по няколко причини:

    1. Некомпетентност (просто незнаят как да го направят?!?)

    2. Нежелание (след като са били добре предплатени от конкурентна фимра)

    И тъй като 1) лично не го приемам на сериозно.. то остава като най-вероятно 2-та версия.. При условие, че тази игра се е очаквало да бъде използвана за тестове и при липса на "комуникация" с фирмата прозиводител.., то на nVidia не е останало нищо повече от това да свърши сама черната работа и да "оптимизира" играта за нейните карти (така че да се използват пълните възможности на картата)!

    Проблемът е ясен.. nVidia и ATI използват колкото сходени толкова и различени хардуерни похвати.. и едната фирма се оптива да излъже другата като пускат (или подкрепят) гейм проекти "оптимизирани" за едната или другата платформа. До скоро (в момента незнам каква е им еполитиката) ATI разчитаха на изяло харуерна поддръжка на примитивните функции, а nVidia разчитат на софтуерна гъвкавост, където е очевидно бъдещето на видео картите!!

    (Една бележка за тези които четат "бързо": под софтуерна нямам предвид, че се разчита на централният процесор (CPU)! Графичните - препрограмируами инструкции се изпълняват от GPU)!

    Точно и за това графичните процесори (от по-ново поколение) на nVidia товарят по-малко централният процесор, тъй като на веднъж може да се окаже на GPU-то какво да прави, а не за всяка инструкция GPU-то да бъде "подканяно" от CPU-то!


  18. god
    god е офлайн
    Member
    Тук е от
    Dec 2000
    Живее в
    Варна
    Мнения
    394
    #45

    ATI пак мачкат а nVidia пак "оптимизирват"

    barnie, основната ти грешка относно 3dfx беше, че съдиш въз основа само на Voodoo1/2. В следващите модели (Banshee,3,4,5) OpenGL съвместимостта беше вече на 100%. Освен това специални оптимизации никога не са се правили, освен ако поддръжката на Glide наричаш оптимизация.

    Иначе за останалото си прав - правенето на оптимизации е похвално начинание. И означава внимание от страна на производителя към крайния потребител. Нещо, което е доста чуждо понятие за AТИ.


Сподели във Facebook Сподели в Google Plus Сподели в Twitter Изпрати на Email Сподели в LinkedIn
Страница 3 от 6 ПърваПърва 12345 ... ПоследноПоследно

Подобни теми

  1. Отговори: 8
    Последно: 12-09-13, 01:55
  2. Nvidia 8400GT vs Nvidia Quadro fx1400
    От DENITO във форум Аудио и Видеокарти
    Отговори: 2
    Последно: 05-03-12, 22:00
  3. nVidia
    От extreem във форум Аудио и Видеокарти
    Отговори: 3
    Последно: 18-03-03, 00:38
  4. Quote: "NVIDIA AGP 8X GPUs..." www.nvidia.com
    От FearMe във форум Аудио и Видеокарти
    Отговори: 13
    Последно: 11-10-02, 16:53
  5. ati ili nvidia
    От cuci във форум Аудио и Видеокарти
    Отговори: 36
    Последно: 24-04-02, 01:09

SetCombG.com
SetCombG.com е портален сайт и Форум за битова техника, телевизори, климатици, лаптопи и смартфони, създаден през 1999 година.
Заедно сме над 20 години!
Следвай ни
Горе