Kane Опубликовано 10 июня, 2010 Жалоба Поделиться Опубликовано 10 июня, 2010 (изменено) Ну у меня как раз пал выбор на GTS250. Наверное ее и возьму со следующей зарплаты. Изменено 10 июня, 2010 пользователем Kane Ссылка на комментарий Поделиться на другие сайты Поделиться
Тилк Опубликовано 10 июня, 2010 Жалоба Поделиться Опубликовано 10 июня, 2010 (изменено) Я посмотрел несколько видов NVidia GTS250, как вам эта? Почему у некоторых видеокарт подписано или поддержка CUDA и PhysX, или просто PhysX? Разве CUDA не относится к PhysX? о_0 Изменено 10 июня, 2010 пользователем Тилк Ссылка на комментарий Поделиться на другие сайты Поделиться
Boma Kuro Опубликовано 10 июня, 2010 Жалоба Поделиться Опубликовано 10 июня, 2010 Почему у некоторых видеокарт подписано или поддержка CUDA и PhysX, или просто PhysX? Разве CUDA не относится к PhysX? о_0CUDA - это вообще совсем другое, даже я знаю. PhysX - это физический движок, то есть для карточек nVidia - обработка физики графическим процессором; а CUDA - это реализация технологии GPGPU, то есть обработка программ графическим прцессором вообще. Хех. Ссылка на комментарий Поделиться на другие сайты Поделиться
Тилк Опубликовано 10 июня, 2010 Жалоба Поделиться Опубликовано 10 июня, 2010 (изменено) Пасиб! А из этих 250-х есть хоть один с CUDA?Или это не важно, если есть процессор 3.16 ГГЦ и Radeon HD 4870? Изменено 10 июня, 2010 пользователем Тилк Ссылка на комментарий Поделиться на другие сайты Поделиться
Varg Опубликовано 11 июня, 2010 Жалоба Поделиться Опубликовано 11 июня, 2010 Зачем именно тебе CUDA? Свой проект или Folding@home? В любом случае у всех нвидий кроме совсем ископаемых есть. Ссылка на комментарий Поделиться на другие сайты Поделиться
Kane Опубликовано 11 июня, 2010 Жалоба Поделиться Опубликовано 11 июня, 2010 (изменено) Я тут почитал про GTS250. пишут что в 250-х есть какие-то недоработки и стоит покупать 260-е. Правда ли это? Насколько сильно отличается эта карточка от предыдущей? Изменено 11 июня, 2010 пользователем Kane Ссылка на комментарий Поделиться на другие сайты Поделиться
Майк Опубликовано 11 июня, 2010 Жалоба Поделиться Опубликовано 11 июня, 2010 250 это переименованная 9800GTX, на ядре G92 (ядро 2008 года, хотя карточка считается 2009 года выпуска, типа новее, но это всего лишь маркетинг для дураков), а 260 это уже на более новом ядре GT200 (2008 год). разница в скорости от 10% до 30% в зависимости от игры и настроек в пользу 260 зы. у 250 поддержка CUDA 1.1, у 260 СUDA 1.3 Ссылка на комментарий Поделиться на другие сайты Поделиться
Varg Опубликовано 11 июня, 2010 Жалоба Поделиться Опубликовано 11 июня, 2010 GTS-250 - это та же самая 8800, перепродаваемая в четвёртый раз с очередной новой наклейкой, к тому же ещё и обрезанная. Если хочется купить четырёхлетнего возраста карточку, welcome. 250 это переименованная 9800GTX, на ядре G92 (ядро 2008 года, хотя карточка считается 2009 года выпуска, типа новее, но это всего лишь маркетинг для дураков)Да три раза оно 2008 года.Сам чип в смысле кремниевого квадратика 2007 года, родом из 8800GT (сама 9800 - перепаковка 8800), но всё содержимое там тот же G80 2006 года, только обрезанный и на 65 нм. Они этот углеродно-датируемый экспонат ещё и в 2011 продавать продолжат, теперь как GT330. Вообще, 2009 для покупки нвидии год неудачный, а 2010 откровенно провальный. Толкают то же старьё, которое с новыми Радеонами просто никак не соревнуется. Ссылка на комментарий Поделиться на другие сайты Поделиться
Akavir Опубликовано 13 июня, 2010 Жалоба Поделиться Опубликовано 13 июня, 2010 Ребят, а не подскажите в чём дело.Стояла видеокарта Winfast 8800GTS 640Mb, работала она работала и вот однажды я пришёл, а комп повис, то есть не реагирует на движение мышью, после выключения (принудительного) на экран остался чёрным, постскрин проходил, винда грузилась. После перетыка провода в другой DVI-вход появилось изображение и дальше работало неделю нормально, затем случилось тоже самое, но комп не завис, а просто при очередном включении показал чёрный экран, постскрин также проходит, один писк раздаётся, винда грузится, но магия с DVI на помогла. Не помогла чистка контактов от окисления, не помогла смена термопасты, это я так, на всякий случай. Ощущение, что видюха работает, кулер крутится, не показатель, но всё же. БП 550 ватт. С другой видяхой комп работает исправно, то есть проблема с ней. Что посоветуете? Ссылка на комментарий Поделиться на другие сайты Поделиться
Kane Опубликовано 13 июня, 2010 Жалоба Поделиться Опубликовано 13 июня, 2010 Варг, ну тогда посоветуй что взять в диапазоне 5-7К руб. А то получается я возьму откровенно устаревшую карту с фичами за завышенную цену. И еще какой блок питания для нее будет нужен. Ссылка на комментарий Поделиться на другие сайты Поделиться
Картман Опубликовано 14 июня, 2010 Жалоба Поделиться Опубликовано 14 июня, 2010 взял GTX 260 896 Мб от MSI за 6500р, фактически схватил первое что попалось. Фаркрай 2 на на ультра настройках в разрешении 1440х900 идет отлично, в самых жарких сценах фпс проседал примерно до 25, в среднем высчитывает более 60 (без синхронизации, естественно), при небольшой загрузке сцены и вовсе более сотни, так что фактически я жизнью сейчас доволен. На матери не обнаружил слота питания для PCI-E, эверест отчитываться по "дисплей - PCI/AGP" не хочет, только по списку устройств. Пишет "NVIDIA GeForce GTX 260 [10DE-05E2] [NoDB]". Понимаю, что мать все равно надо менять, но это питание вообще принципиально, оно на что-то влияет? Карточка даже визуально отличается от тестируемых аналогов, которые я видел на разных сайтах. Что это вообще за зверь? Ссылка на комментарий Поделиться на другие сайты Поделиться
Akavir Опубликовано 15 июня, 2010 Жалоба Поделиться Опубликовано 15 июня, 2010 взял GTX 260 896 Мб от MSI за 6500р, фактически схватил первое что попалось. Фаркрай 2 на на ультра настройках в разрешении 1440х900 идет отлично, в самых жарких сценах фпс проседал примерно до 25, в среднем высчитывает более 60 (без синхронизации, естественно), при небольшой загрузке сцены и вовсе более сотни, так что фактически я жизнью сейчас доволен. На матери не обнаружил слота питания для PCI-E, эверест отчитываться по "дисплей - PCI/AGP" не хочет, только по списку устройств. Пишет "NVIDIA GeForce GTX 260 [10DE-05E2] [NoDB]". Понимаю, что мать все равно надо менять, но это питание вообще принципиально, оно на что-то влияет? Карточка даже визуально отличается от тестируемых аналогов, которые я видел на разных сайтах. Что это вообще за зверь? Где это ты взял GTX260 за шесть с половиной кусков. К нам в Курск привозят её уже под 9000 примерно, может 8700. Мне из Москвы без наценки сейчас везут и то за 7700 Ссылка на комментарий Поделиться на другие сайты Поделиться
Картман Опубликовано 15 июня, 2010 Жалоба Поделиться Опубликовано 15 июня, 2010 Тьфу извиняюсь, цыфорку не ту ткнул, конечно 8500 а не 6500. А тебе, кстати, откуда это так красиво везут? За доставку небось платишь же? Сегодня опробовал Метро 2033 - идет на максимальных в 1440х900 без видимых тормозов, провисало только в самых жоских сценах с обработкой volumetric textures для красивых лучей света. Если поставить просто на высокие (то бишь отрубить просчет света от Солнца) то и вовсе летает. Таки вопрос про питание остается на повестке. И почему эверест не видит карточку?Алсо, в свойствах экрана появилась новая закладочка "VGA Clock", коя мне доверия никак не внушает. Есть ли смысл ее использовать или лучше юзать старый добрый рива тюнер? Ссылка на комментарий Поделиться на другие сайты Поделиться
Akavir Опубликовано 15 июня, 2010 Жалоба Поделиться Опубликовано 15 июня, 2010 Тьфу извиняюсь, цыфорку не ту ткнул, конечно 8500 а не 6500. А тебе, кстати, откуда это так красиво везут? За доставку небось платишь же? Сегодня опробовал Метро 2033 - идет на максимальных в 1440х900 без видимых тормозов, провисало только в самых жоских сценах с обработкой volumetric textures для красивых лучей света. Если поставить просто на высокие (то бишь отрубить просчет света от Солнца) то и вовсе летает. Таки вопрос про питание остается на повестке. И почему эверест не видит карточку?Алсо, в свойствах экрана появилась новая закладочка "VGA Clock", коя мне доверия никак не внушает. Есть ли смысл ее использовать или лучше юзать старый добрый рива тюнер? Везут мне за магарыч из Москвы за доставку не плачу, приятель в фирме работает. Дай пожалуйста ссылку на твою GTX260. По поиску нашёл только эти: http://www.vga.pe.kr/xe/229496Разгонять с референсной системой охлаждения не решился бы. Ссылка на комментарий Поделиться на другие сайты Поделиться
Kane Опубликовано 16 июня, 2010 Жалоба Поделиться Опубликовано 16 июня, 2010 Я видел в прайс-листе одной из фирм у нас в Краснодаре GTX 260 за 7500р. Ссылка на комментарий Поделиться на другие сайты Поделиться
Майк Опубликовано 16 июня, 2010 Жалоба Поделиться Опубликовано 16 июня, 2010 На матери не обнаружил слота питания для PCI-Eнету на матерях такого принципиально, есть дополнительные разъемы питания на самой видеокарте, 6-и и 8-и пиновые, чаще всего два 6-и пиновых, если жтер больше 180-200 Вт, то 6+8 ставят, шнуры на 6 есть уже на всех новых БП, шнуры на 8 в дорогих, там они делаются разделяющимися 6+2, так что можно в любую видяшку воткнуть, либо через переходники из HDD-питания 12в подключается эверест отчитываться по "дисплей - PCI/AGP" не хочет, только по списку устройств. Пишет "NVIDIA GeForce GTX 260 [10DE-05E2] [NoDB]".эверест поменяй Карточка даже визуально отличается от тестируемых аналогов, которые я видел на разных сайтах. Что это вообще за зверь?китайская подделка Ссылка на комментарий Поделиться на другие сайты Поделиться
Картман Опубликовано 17 июня, 2010 Жалоба Поделиться Опубликовано 17 июня, 2010 Да, нижний вариант -_- нету на матерях такого принципиально, есть дополнительные разъемы питания на самой видеокарте, 6-и и 8-и пиновые, чаще всего два 6-и пиновых, если жтер больше 180-200 Вт, то 6+8 ставят, шнуры на 6 есть уже на всех новых БП, шнуры на 8 в дорогих, там они делаются разделяющимися 6+2, так что можно в любую видяшку воткнуть, либо через переходники из HDD-питания 12в подключается вот у меня как раз 8-пиновый с разделяющимся 6+2. А как его воткнуть в два 6-пин питания на карте? Пока что подключено через два 6-пин от хдд Ссылка на комментарий Поделиться на другие сайты Поделиться
Майк Опубликовано 17 июня, 2010 Жалоба Поделиться Опубликовано 17 июня, 2010 один и подключи, второй через переходники, у меня на блоке (модульный) можно 2 шнура [(6+2)*2] воткнуть , то есть на конце шнура, он имеет два коннектора 6+2, так он и стоит, стоил... (MODU82+) Ссылка на комментарий Поделиться на другие сайты Поделиться
Картман Опубликовано 17 июня, 2010 Жалоба Поделиться Опубликовано 17 июня, 2010 Странно, зачем тогда 8 контактов? О_о Ладно, так и сделаю, у меня тоже шнуры фтыкать в бп можно, неиспользованных целая коробка осталась. Я методом тыка проверил - один слот для вентилятора, другой видимо для питания самой карты Upd: да, так будет лучше - один 6-пин несъемный, второй 6+2 подключаемый. На них даже маркировки "PCI-E 1" и "PCI-E 2", чтобы не перепутать ненароком *стучит дубиной по компьютеру* В мой миди-тавер карточка-то еле влезла, а еще новый бп с изолированными проводами, нихрена места нет в корпусе. Видеокарта закрывает все слоты сата, кроме самого нижнего, который она закрывает наполовину, и шнур оттуда торчит косо... плюс оперативу вынуть можно только после видеокарты. Чепец Так, теперь объясните как использовать CUDA? Тяну какой-то девелоперс драйвер с сайта нвидии Ссылка на комментарий Поделиться на другие сайты Поделиться
Don Condor Опубликовано 17 июня, 2010 Жалоба Поделиться Опубликовано 17 июня, 2010 теперь объясните как использовать CUDA? Тяну какой-то девелоперс драйвер с сайта нвидииМне нравится ваш подход, Станислав Игоревич. Два пути: либо использовать некоторый софт, использующий CUDA (о чём как правило специально упоминается в сопроводительной документации к софту), либо создавать такой софт самому. И на этом внезапно всё. Ссылка на комментарий Поделиться на другие сайты Поделиться
Картман Опубликовано 17 июня, 2010 Жалоба Поделиться Опубликовано 17 июня, 2010 А использовать обычный софт в режиме CUDA нельзя? И какой софт поддерживает CUDA? Ссылка на комментарий Поделиться на другие сайты Поделиться
Don Condor Опубликовано 17 июня, 2010 Жалоба Поделиться Опубликовано 17 июня, 2010 А использовать обычный софт в режиме CUDA нельзя?Нет. В "режиме CUDA" можно использоваться только то, что с прицелом на этот "режим" написано. И какой софт поддерживает CUDA?I have no idea. Из более-менее общеупотребительного вроде бы последние версии ни то Фотозада, ни то 3DМакса умеют работать с кудой - по крайней мере я что-то такое на этот счёт слышал. А так - хз... CUDA вообще вещь достаточно специальная. Ссылка на комментарий Поделиться на другие сайты Поделиться
Майк Опубликовано 17 июня, 2010 Жалоба Поделиться Опубликовано 17 июня, 2010 физикс плагин к 3дмаксу работает через куду Ссылка на комментарий Поделиться на другие сайты Поделиться
Varg Опубликовано 17 июня, 2010 Жалоба Поделиться Опубликовано 17 июня, 2010 Так, теперь объясните как использовать CUDA? Для чего тебе CUDA? Готовый софт, которому это нужно, уже умеет. Если хочется посмотреть, работает ли оно, и заюзать типа - folding@home, http://fah-web.stanford.edu/ Ссылка на комментарий Поделиться на другие сайты Поделиться
Картман Опубликовано 17 июня, 2010 Жалоба Поделиться Опубликовано 17 июня, 2010 Для чего тебе CUDA?Вот уж не знаю, но если есть то пусть работает. Готовый софт, которому это нужно, уже умеет.3д макс 2009 этого явно не умеет. А почему бы просто не совместить мощности процессоров как, кстати, и обещает нвидиа? К чему тогда тяжелые дрова, если сам софт должен быть заточен под куду? folding@homeБоже, что это еще за неведомая х**ня Ссылка на комментарий Поделиться на другие сайты Поделиться
Рекомендуемые сообщения
Для публикации сообщений создайте учётную запись или авторизуйтесь
Вы должны быть пользователем, чтобы оставить комментарий
Создать учетную запись
Зарегистрируйте новую учётную запись в нашем сообществе. Это очень просто!
Регистрация нового пользователяВойти
Уже есть аккаунт? Войти в систему.
Войти