Перейти к содержанию

Видеокарта - выбор


Рекомендуемые сообщения

Ну у меня как раз пал выбор на GTS250. Наверное ее и возьму со следующей зарплаты. Изменено пользователем Kane
Ссылка на комментарий
Поделиться на другие сайты

Я посмотрел несколько видов NVidia GTS250, как вам эта?

 

Почему у некоторых видеокарт подписано или поддержка CUDA и PhysX, или просто PhysX? Разве CUDA не относится к PhysX? о_0

Изменено пользователем Тилк
Ссылка на комментарий
Поделиться на другие сайты

Почему у некоторых видеокарт подписано или поддержка CUDA и PhysX, или просто PhysX? Разве CUDA не относится к PhysX? о_0
CUDA - это вообще совсем другое, даже я знаю. PhysX - это физический движок, то есть для карточек nVidia - обработка физики графическим процессором; а CUDA - это реализация технологии GPGPU, то есть обработка программ графическим прцессором вообще. Хех.
Ссылка на комментарий
Поделиться на другие сайты

Пасиб! А из этих 250-х есть хоть один с CUDA?

Или это не важно, если есть процессор 3.16 ГГЦ и Radeon HD 4870?

Изменено пользователем Тилк
Ссылка на комментарий
Поделиться на другие сайты

Я тут почитал про GTS250. пишут что в 250-х есть какие-то недоработки и стоит покупать 260-е. Правда ли это? Насколько сильно отличается эта карточка от предыдущей? Изменено пользователем Kane
Ссылка на комментарий
Поделиться на другие сайты

250 это переименованная 9800GTX, на ядре G92 (ядро 2008 года, хотя карточка считается 2009 года выпуска, типа новее, но это всего лишь маркетинг для дураков), а 260 это уже на более новом ядре GT200 (2008 год). разница в скорости от 10% до 30% в зависимости от игры и настроек в пользу 260

 

зы. у 250 поддержка CUDA 1.1, у 260 СUDA 1.3

Ссылка на комментарий
Поделиться на другие сайты

GTS-250 - это та же самая 8800, перепродаваемая в четвёртый раз с очередной новой наклейкой, к тому же ещё и обрезанная.

 

Если хочется купить четырёхлетнего возраста карточку, welcome.

 

 

 

250 это переименованная 9800GTX, на ядре G92 (ядро 2008 года, хотя карточка считается 2009 года выпуска, типа новее, но это всего лишь маркетинг для дураков)

Да три раза оно 2008 года.

Сам чип в смысле кремниевого квадратика 2007 года, родом из 8800GT (сама 9800 - перепаковка 8800), но всё содержимое там тот же G80 2006 года, только обрезанный и на 65 нм.

 

Они этот углеродно-датируемый экспонат ещё и в 2011 продавать продолжат, теперь как GT330.

 

Вообще, 2009 для покупки нвидии год неудачный, а 2010 откровенно провальный. Толкают то же старьё, которое с новыми Радеонами просто никак не соревнуется.

Ссылка на комментарий
Поделиться на другие сайты

Ребят, а не подскажите в чём дело.

Стояла видеокарта Winfast 8800GTS 640Mb, работала она работала и вот однажды я пришёл, а комп повис, то есть не реагирует на движение мышью, после выключения (принудительного) на экран остался чёрным, постскрин проходил, винда грузилась. После перетыка провода в другой DVI-вход появилось изображение и дальше работало неделю нормально, затем случилось тоже самое, но комп не завис, а просто при очередном включении показал чёрный экран, постскрин также проходит, один писк раздаётся, винда грузится, но магия с DVI на помогла. Не помогла чистка контактов от окисления, не помогла смена термопасты, это я так, на всякий случай. Ощущение, что видюха работает, кулер крутится, не показатель, но всё же. БП 550 ватт. С другой видяхой комп работает исправно, то есть проблема с ней. Что посоветуете?

Ссылка на комментарий
Поделиться на другие сайты

Варг, ну тогда посоветуй что взять в диапазоне 5-7К руб. А то получается я возьму откровенно устаревшую карту с фичами за завышенную цену. И еще какой блок питания для нее будет нужен.
Ссылка на комментарий
Поделиться на другие сайты

взял GTX 260 896 Мб от MSI за 6500р, фактически схватил первое что попалось. Фаркрай 2 на на ультра настройках в разрешении 1440х900 идет отлично, в самых жарких сценах фпс проседал примерно до 25, в среднем высчитывает более 60 (без синхронизации, естественно), при небольшой загрузке сцены и вовсе более сотни, так что фактически я жизнью сейчас доволен.

 

На матери не обнаружил слота питания для PCI-E, эверест отчитываться по "дисплей - PCI/AGP" не хочет, только по списку устройств. Пишет "NVIDIA GeForce GTX 260 [10DE-05E2] [NoDB]". Понимаю, что мать все равно надо менять, но это питание вообще принципиально, оно на что-то влияет?

 

Карточка даже визуально отличается от тестируемых аналогов, которые я видел на разных сайтах. Что это вообще за зверь?

Ссылка на комментарий
Поделиться на другие сайты

взял GTX 260 896 Мб от MSI за 6500р, фактически схватил первое что попалось. Фаркрай 2 на на ультра настройках в разрешении 1440х900 идет отлично, в самых жарких сценах фпс проседал примерно до 25, в среднем высчитывает более 60 (без синхронизации, естественно), при небольшой загрузке сцены и вовсе более сотни, так что фактически я жизнью сейчас доволен.

 

На матери не обнаружил слота питания для PCI-E, эверест отчитываться по "дисплей - PCI/AGP" не хочет, только по списку устройств. Пишет "NVIDIA GeForce GTX 260 [10DE-05E2] [NoDB]". Понимаю, что мать все равно надо менять, но это питание вообще принципиально, оно на что-то влияет?

 

Карточка даже визуально отличается от тестируемых аналогов, которые я видел на разных сайтах. Что это вообще за зверь?

 

Где это ты взял GTX260 за шесть с половиной кусков. К нам в Курск привозят её уже под 9000 примерно, может 8700. Мне из Москвы без наценки сейчас везут и то за 7700 =-O

Ссылка на комментарий
Поделиться на другие сайты

Тьфу извиняюсь, цыфорку не ту ткнул, конечно 8500 а не 6500. А тебе, кстати, откуда это так красиво везут? За доставку небось платишь же?

 

 

Сегодня опробовал Метро 2033 - идет на максимальных в 1440х900 без видимых тормозов, провисало только в самых жоских сценах с обработкой volumetric textures для красивых лучей света. Если поставить просто на высокие (то бишь отрубить просчет света от Солнца) то и вовсе летает.

 

 

 

 

Таки вопрос про питание остается на повестке. И почему эверест не видит карточку?

Алсо, в свойствах экрана появилась новая закладочка "VGA Clock", коя мне доверия никак не внушает. Есть ли смысл ее использовать или лучше юзать старый добрый рива тюнер?

Ссылка на комментарий
Поделиться на другие сайты

Тьфу извиняюсь, цыфорку не ту ткнул, конечно 8500 а не 6500. А тебе, кстати, откуда это так красиво везут? За доставку небось платишь же?

 

 

Сегодня опробовал Метро 2033 - идет на максимальных в 1440х900 без видимых тормозов, провисало только в самых жоских сценах с обработкой volumetric textures для красивых лучей света. Если поставить просто на высокие (то бишь отрубить просчет света от Солнца) то и вовсе летает.

 

 

 

 

Таки вопрос про питание остается на повестке. И почему эверест не видит карточку?

Алсо, в свойствах экрана появилась новая закладочка "VGA Clock", коя мне доверия никак не внушает. Есть ли смысл ее использовать или лучше юзать старый добрый рива тюнер?

 

Везут мне за магарыч из Москвы :gigi: за доставку не плачу, приятель в фирме работает. Дай пожалуйста ссылку на твою GTX260. По поиску нашёл только эти: http://www.vga.pe.kr/xe/229496

Разгонять с референсной системой охлаждения не решился бы. :-)

Ссылка на комментарий
Поделиться на другие сайты

На матери не обнаружил слота питания для PCI-E

нету на матерях такого принципиально, есть дополнительные разъемы питания на самой видеокарте, 6-и и 8-и пиновые, чаще всего два 6-и пиновых, если жтер больше 180-200 Вт, то 6+8 ставят, шнуры на 6 есть уже на всех новых БП, шнуры на 8 в дорогих, там они делаются разделяющимися 6+2, так что можно в любую видяшку воткнуть, либо через переходники из HDD-питания 12в подключается

 

эверест отчитываться по "дисплей - PCI/AGP" не хочет, только по списку устройств. Пишет "NVIDIA GeForce GTX 260 [10DE-05E2] [NoDB]".
эверест поменяй

 

 

Карточка даже визуально отличается от тестируемых аналогов, которые я видел на разных сайтах. Что это вообще за зверь?

китайская подделка
Ссылка на комментарий
Поделиться на другие сайты

Да, нижний вариант -_-

 

 

 

нету на матерях такого принципиально, есть дополнительные разъемы питания на самой видеокарте, 6-и и 8-и пиновые, чаще всего два 6-и пиновых, если жтер больше 180-200 Вт, то 6+8 ставят, шнуры на 6 есть уже на всех новых БП, шнуры на 8 в дорогих, там они делаются разделяющимися 6+2, так что можно в любую видяшку воткнуть, либо через переходники из HDD-питания 12в подключается

 

вот у меня как раз 8-пиновый с разделяющимся 6+2. А как его воткнуть в два 6-пин питания на карте? Пока что подключено через два 6-пин от хдд

Ссылка на комментарий
Поделиться на другие сайты

один и подключи, второй через переходники, у меня на блоке (модульный) можно 2 шнура [(6+2)*2] воткнуть :crazy: , то есть на конце шнура, он имеет два коннектора 6+2, так он и стоит, стоил... (MODU82+)
Ссылка на комментарий
Поделиться на другие сайты

Странно, зачем тогда 8 контактов? О_о Ладно, так и сделаю, у меня тоже шнуры фтыкать в бп можно, неиспользованных целая коробка осталась.

 

Я методом тыка проверил - один слот для вентилятора, другой видимо для питания самой карты

 

 

Upd: да, так будет лучше - один 6-пин несъемный, второй 6+2 подключаемый. На них даже маркировки "PCI-E 1" и "PCI-E 2", чтобы не перепутать ненароком

 

*стучит дубиной по компьютеру*

 

 

В мой миди-тавер карточка-то еле влезла, а еще новый бп с изолированными проводами, нихрена места нет в корпусе. Видеокарта закрывает все слоты сата, кроме самого нижнего, который она закрывает наполовину, и шнур оттуда торчит косо... плюс оперативу вынуть можно только после видеокарты. Чепец

 

Так, теперь объясните как использовать CUDA? Тяну какой-то девелоперс драйвер с сайта нвидии

Ссылка на комментарий
Поделиться на другие сайты

теперь объясните как использовать CUDA? Тяну какой-то девелоперс драйвер с сайта нвидии
Мне нравится ваш подход, Станислав Игоревич. Два пути: либо использовать некоторый софт, использующий CUDA (о чём как правило специально упоминается в сопроводительной документации к софту), либо создавать такой софт самому. И на этом внезапно всё.
Ссылка на комментарий
Поделиться на другие сайты

А использовать обычный софт в режиме CUDA нельзя?
Нет. В "режиме CUDA" можно использоваться только то, что с прицелом на этот "режим" написано.

 

И какой софт поддерживает CUDA?
I have no idea. Из более-менее общеупотребительного вроде бы последние версии ни то Фотозада, ни то 3DМакса умеют работать с кудой - по крайней мере я что-то такое на этот счёт слышал. А так - хз... CUDA вообще вещь достаточно специальная.
Ссылка на комментарий
Поделиться на другие сайты

Так, теперь объясните как использовать CUDA?

Для чего тебе CUDA?

 

Готовый софт, которому это нужно, уже умеет.

 

Если хочется посмотреть, работает ли оно, и заюзать типа - folding@home, http://fah-web.stanford.edu/

Ссылка на комментарий
Поделиться на другие сайты

Для чего тебе CUDA?

Вот уж не знаю, но если есть то пусть работает.

 

Готовый софт, которому это нужно, уже умеет.
3д макс 2009 этого явно не умеет. А почему бы просто не совместить мощности процессоров как, кстати, и обещает нвидиа? К чему тогда тяжелые дрова, если сам софт должен быть заточен под куду?

 

folding@home
Боже, что это еще за неведомая х**ня
Ссылка на комментарий
Поделиться на другие сайты

Для публикации сообщений создайте учётную запись или авторизуйтесь

Вы должны быть пользователем, чтобы оставить комментарий

Создать учетную запись

Зарегистрируйте новую учётную запись в нашем сообществе. Это очень просто!

Регистрация нового пользователя

Войти

Уже есть аккаунт? Войти в систему.

Войти
  • Последние посетители   0 пользователей онлайн

    • Ни одного зарегистрированного пользователя не просматривает данную страницу
×
×
  • Создать...