Pull to refresh

Comments 46

для иллюстрации объекта обсуждения было бы желательно увидеть скриншот из GPU-Z.
off по информационной емкости этой статье больше бы подошла публикация на mysku.
UFO just landed and posted this here

Вот! Тогда попросим автора сфотографировать обратную сторону карты?

Случай #1: автомобиль в такси/каршеринге.
Случай #2: автомобиль, на котором постоянно участвовали в гонках.
Случай #3: автомобиль, на котором два раза в день по будням ездили на работу и с работы и по выходным на дачу.
Какой выберете?
Я — вариант номер три.
В первом случае машина замучена. Во втором у неё может быть даже не большой пробег, но весь пробег мотор жарили в отсечку. Так вот, первые два случая — это про майнинг.


"даже наоборот даунклокают"
Может потому, что иначе многие карты при майнинге сами будут троттлить?


"нагрузка хоть и высокая, но равномерная"
Не высокая, а максимальная. Разве майнинг не греет ГП и память чуть ли не лучше "бублика"?
Постоянная максимальная нагрузка не лучше, чем периодическая высокая нагрузка.


"в нежилых помещениях"
И чем же это лучше для видеокарты?


"100500 раз нагреваются и остывают"
У меня карта в стресс-тестах греется 70°C, в играх при максимальной нагрузке — 63. Что-то мне подсказывает, что при майнинге будет около 85-90. И "равномерная" загрузка с постоянной температурой 90, по-вашему, лучше, чем периодическая нагрев до 54-63 и остывание до 35-40 (в простое отключаются карлсоны и температура ГП выше комнатной).
Okay.jpg

Что-то мне подсказывает, что при майнинге будет около 85-90.
Если бы можно было разогреть карту на 20° выше, чем в стресс-тестах, то, наверное, авторы бы давно эти тесты подправили?
А реальность такова, что майнинг греет видеокарту даже меньше, чем игры www.thg.ru/graphic/luchshie_videokarty_dlya_maininga/onepage.html

Чисто субъективно с Ваших слов кажется, что майнинг — плёвая задача, лёгкая для карты, которая её и не нагружает толком. (Просто воспринимается так)
Но с той же статьи подзаголовки намекают на другое:
"Найдите и используйте оптимальные настройки"
"Нагрев — это убийца"
То есть майнинговый софт можно настроить так, чтобы карту он грузил максимально и уводил её в критические температуры. Где гарантия, что майнер был не слишком жадный и позаботился, чтобы на вторичке его карты ещё пожили, а не доживали последние месяцы?


На счёт 20-градусной разницы со стресс-тестом — чушь я написал, конечно.
Но и на счёт игр тоже слегка чушь.
При майнинге каждая единица производительности — деньги. Нужно допускать бо́льшие температуры, чтобы получить максимум от карты. А в играх можно включать Adaptive VSync, лимит кадров на 60, если карта не тащит нативные для монитора 100/144/итд. Лично я так и делаю. Карту в tdp 108%, t max = 70. Настройки графики, чтобы не было просадок <60, если AVG FPS < частоты монитора, тогда лимит FPS = 60, AVSync = on. Получаю 2100 МГц ГП (2060S), 63°C, стабильные 60 FPS без просадок в AAA с загрузкой ГП в разных тайтлах 70-99%. Если же брать "киберспорт", то там с ULQ-графикой разгон off, температуры не больше 55, карлсонов не слышно, загрузка ГП — 50% при частоте 1100 МГц. На основании выше-изложенного упорно не понимаю, почему у меня карта в таких режимах проживёт меньше, чем при майнинге. Кстати, продал бывшую печ780 за 5,5. Состояние идеальное, новый владелец уже пол года доволен, как слон.
Извините, если сильно оффтоп или ещё чего.

UFO just landed and posted this here

А если электричество дешевое? Смысл экономить пару десятков Вт/ч?

UFO just landed and posted this here

И ещё, как видно по графику, разница между 1500 и 2000 МГц минимальная. Существенный нелинейный прирост начинается с 3 ГГц и особенно с 4 ГГц.

UFO just landed and posted this here
Тут скорее выбор между машиной которая за 3 года прошла 100000км по Москве и машиной которая прошла по трассе 300000км за то же время. И я не спорю, что машина которая прошла по трассе за 3 года 10000км будет лучше, но вам ее не продадут за ту же цену.

Для справки. Майнеры есть разные, монеты тоже разные. Карты которые копают монеты на протоколе ethash, действительно даунвольтят чтобы сэкономить электричество. При этом насилуется память и частенько память через пару тройку лет не тянет разгон памяти. При этом карту можно продать и будет ли деградация расти, неизвестно. Бывает, что такой эффект вызывает вытекание термопрокладок, замена помогает. Но хорошие термопрокладки дороги.
Другие протоколы, как и дуалмайнинг (копание двух монет на одной карте) критичны к частоте ядра и карты выгодно гнать.
Карты из под майнинга часто имеют проблемы с вентиляторами или вентиляторы заменены на вентиляторы с алиэкспресса, срок службы которых типично ниже штатных.
Иногда карты суют в ванны с маслом, и штатная система вентиляции сохраняется в идеале. Промыть после такого плату полностью невозможно и карта может впоследствии «мироточить».

Почти все Б/У карты на авито майнили. Сейчас произойдет массовый сброс карт класса RX470/580 4GB, цены на них в течении января упадут к 50$. Для игр они все еще вполне хороши за свою цену. Я считаю, что после осмотра и проверки под фурмарком не менее 30 минут — можно брать.
4GB
Для игр они все еще вполне хороши
4 гигабайт было маловато ещё полтора года назад, и с каждым годом такая видеокарта будет всё больше уступать точно такой же, но с 8 гигабайтами.

Когда я сел писать эту статью, сразу же вспомнил противостояние таких видеокарт, как AMD Radeon HD 7970 и GeForce GTX 770 (в девичестве — GeForce GTX 680). Тогда оба графических адаптера обладали более-менее равным уровнем производительности: в одних играх чуть лучше смотрелись «красные», в других — «зеленые». Однако со временем GeForce GTX 680 (770) начала серьезно проигрывать Radeon HD 7970. Разница в объеме видеопамяти (2 и 3 Гбайт) сказалась на этом противостоянии — и рано или поздно скажется в любом случае, например если мы сравним актуальные в 2019 году модели игровых ускорителей. Что ж, даже такого примера уже достаточно для того, чтобы дать один дельный совет: если вы четко осознаете, что покупаете видеокарту надолго (скажем, на 3 года минимум), то возьмите версию с большим объемом VRAM. Например, Radeon RX 570 8 Гбайт, но не 4-гигабайтную версию.
Если внимательно читать статью, и смотреть не «сколько съест слон если ему дать», а сравнить фактический FPS в играх на RX570 4g vs 8g, мы видим исчезающе малое различие. При том, что сравниваются максимальные настройки, а при ухудшении качества падает и потребление видеопамяти. Учитывая тот факт, что RX570 по нынешним меркам видеокарта ну очень среднего уровня, настройки графики для комфортной игры будут далеки от максимальных, а разница в объеме видеопамяти вообще не будет заметна. С точки зрения «а вот скоро выйдут игры способные употребить 24 гигабайта 3090», так и играть на максималках в них можно будет на 3090, а для RX570 настройки будут ниже средних и памяти хватит.

Я бы вообще с точки зрения игр не смотрел на RX570/8G, пусть они и дальше майнят. Если хочется видеокарту шустрее и дороже RX570, весьма интересна будет 1080/8G.
UFO just landed and posted this here

"Этого достаточно для отвала GPU в перспективе."


Можно какие-нибудь ссылочки, почитать об этом? Не верится что. 63°Ц что для кремния, что для текстолита — холодная температура. При такой температуре можно было бы потрогать поверхность кристалла и не обжечься.
Нвидиа заявляет для RTX 2060S максимальную температуру 89°Ц. Дистанция до tj max — 26°. Целая пропасть. Не вижу причин быть отвалу.

UFO just landed and posted this here
Шейдеры (shaders), а не шредеры.
Удивительно, что человек, позиционирующий себя игровым программистом (пусть и любителем), не знает этого термина…
Эти шейдеры пропускают через себя целостную исходную графическую информацию, превращая её в буйство красок пикселей на экране. Чем они не шреддеры?
Извините, забыл закрыть тэг сарказма. Исправлюсь.
Но ведь шейдерные блоки там изначально заблокированы не для того, чтобы продавать чип дешевле :) В чипе есть брак — на производстве отключили сбойные блоки. Вполне возможно, что зависания случались из-за этих блоков, включенных обратно моддером, а не из-за частот.
Ну наверно мне повезло.

Бывает и для того, чтобы продавать дешевле — если сбойных чипов меньше, чем надо продать дешевых видеокарт.

UFO just landed and posted this here
Точно так. Свой RX570 о 4Gb из Великой Поднебесной лечил этим методом. Вылечил. Живет и не тужит. Брал под Hackintosh где в основном и работает в качестве офисной карты. Впрочем, дети вполне довольны производительностью в GTA V под Windows. Правда ощутимой разницы FullHD на PS4 vs 4K на ПК конкретно в этой игре на конкретно моей системе конкретно мне не заметно. А вот в Linux (Ubuntu 20.04 LTS) артефакты в виде следов курсора вполне заметны…

[offtopic]
Вот бы беспроблемную офисную карту. Чтоб 4К@60Hz (min) для IDE, но при этом не утыканную вентиляторами как ежик иголками, не съедающую львинную долю мощности блока питания, не стоящую как крыло от самолета, работающую под всеми основными осями (Win, Lin, Mac). Мечты-мечты… Приходится довольствоваться горячей игровой…
[/offtopic]

Посмотрите в сторону Nvidia gt1030 / 730
Или Radeon WX2100.

Cпасибо за советы. И тем кто в личку писал. Я присмотрюсь.

Основная проблема именно в том, что на компе зоопарк осей. Ubuntu и Windows для работы. C ними особо проблем нет. А вот macOs… Она для души. И с некоторых пор не любит она NVidia. Да и ATI/AMD не всякую.

Одно время неплохим решением была встроенная Intel графика. Не игровой вариант, но вполне кроссплатформенный. Браузер, читалка, IDE. Но до появления 4К монитора (глазки… уже требуют...) лучшим решением была GTX640 от NVidia. Увы, 4K она тянет только про 30Гц. Маловато. 1030 вариант, но macOs из коробки не умеет и есть вопросы как долго будет уметь не «из коробки». Про остальные ATI/AMD тоже надо выяснять отдельно.

Так что самая ограничивающая ос — ожидаемо macOs. И, блин, ушел бы на macMini с его M1, если б не регулярно нужные Windows с IAR и Ubuntu с GCC. А ноуты я не люблю. Это идейное. Да и дороговато выйдет — отбивать замучаюсь.

wx2100/3100 точно в MacOs/hackintosh не заведутся. А что за проблема с Nvidia? Я в свое врем просто ставил Nvidia драйвер и все работало как родное.
Правда давно это было.

C NVidia проблема в том, что все, что выше Kepler нативно не работает. В режиме raw framebuffer и то с бубном. А дальше драйвер. Которого под Catalina долго не наблюдалось и про Big Sur непонятно. Kepler (к слову) ей вроде как поддерживается. Как всегда с яблоками — пока дружили с NVidia проблем не наблюдалось. Как перестали… Потому и судьба x86 применительно к macOs вызывает некоторые опасения. А жаль. Если Linux — это разработчикам от разработчиков, то macOs это людям от людей.
Спасибо за подробное разъяснеие шагов по адаптации и проверки карты. Задумывался о такой покупке, но все никак не собирался с духом.
Б/у карту лучше брать на местном рынке, с китая только рефабы и только у продавцов с 95+% хороших отзывов со свежими отзывами с фотками, а то они любят менять товар в одном и том же лоте.
«Покупка подержанных видеокарт в Китае. Стоит ли игра свеч?»
Но ведь куплена ОДНА кривоватая видеокарта, сравнения цен даже нет.
Техническая часть банальна, как ты можешь тестировать карту в игре? Там же нагрузка скакообразная, а «тестирование» растянулось на несколько дней.
… и у этого человека полноправный аккаунт.
Не увидел цену, аналитику цены на новые модели и сравнение с авито.

а разве при моде биоса AMD-видяхи не нужны патченные драйверы? Или AMD убрали эту защиту из новых драйверов?

В Linux не нужно. Под Windows приходится патчить AMD/ATI Pixel Clock Patcher.

Никогда не понимал подобной «защиты», только бесполезный гемморой на ровном месте без какой-либо пользы для кого угодно.
У AMD хотя бы можно модифицировать и прошивать… Для майнерской карты от NVIDIA я только спустя два года нашёл референсный биос с вменяемыми настройками кулеров (оригинальный биос от вендра врубал вертушки на 100% уже при 50 градусах). Редакторов кот наплакал и те могут менять лишь базовые параметры типа TDP и скорости вентиляторов, самое вкусное в биосе подписано цифровой подписью NVIDIA и изменению не подлежит. А прошить в карту биос от карты с другим GPU уже вообще нереально, не поможет даже программатор (не стартанёт после этой операции из-за несовпадения идентификаторов чипа и биоса).
Имхо, чтобы не перешивали дешевые карты подобные ASUS Mining P106 в что-то игровое.
Если память не изменяет, шить было нельзя уже во времена Maxwell. Там последние биты идентификатора чипа уже зашиты прямо в чип (до этого можно было колдовать со страпами). А подписывать прошивку начали с Pascal.
Если не ошибаюсь патч нужен если были разблокированы шейдеры. Но в моем случае Китайцы разблокировали их таким образом что никакой патч не нужен. Возможно это из-за того что карта считает себя картой Saphire.
Нужно было в оригинальном биосе поправить пару цифирок. Ну и после этого использовать патч для драйвера, ибо винда видела ошибку crc и не давала запускать драйвер.
Вы ошибаетесь если контрольная сумма биоса неправильная то карта вообще не стартует. PolarisBiosEditor каждый раз пересчитывает контрольную сумму.
всем привет (пришлось зарегистрироваться, нет сил уже видеть это)
читаю, что сам топик, что комментарии и диву даюсь…
люди, которые ни черта (от слова совсем) не понимают в майнинге — умудряются о нем размышлять, при том, что обладание «вводными данными» чаще всего ограничено категорией «что-то где там слышал»…
вы серьезно?
а как же матчасть?
может для начала ее изучить, перед тем как делать свои «глубокие умозаключения»?
просто смешно читать, вот честно
Но даже если не качаться майнинга — давайте посмотрим на эту статью:
Покупка подержанной видеокарты в Китае — казалось бы, в чем ее суть?
Ну наверное, чтобы сэкономить денег(1), купить недоступный на локальном рынке экземпляр(2), оптовая закупка(3), какие еще варианты будут? Да любые другие, но тут…

1. Видеокарта морально устаревшая, уже
2. На момент выхода (не говоря уже про сейчас) оказалась неудачным вариантом (слишком слабая для всего)
3. Учитывая что она еще и б\у — неужели на авито нет аналогичных вариантов по любой цене? по абсолютно любой цене. Так как доставка из Китая «кота в мешке» нивелирует любые плюсы, какими бы они ни были, или это была попытка сэкономить 100 рублей?
Вобщем дичь и боль, больше похоже на «статью ради статьи», эта видеокарта по сути мало чем превосходит «встройку», ее удел — видосы с ютуба и мейнстрим-игры 15-летней давности. Нет ни единой причины тратить хоть какие деньги на покупку этого барахла, и никакие разблокировки «еще небольшой кучки ядер» не принесут никакой пользы, кроме патологоанотомической, не говоря уже о том, чтобы тащить эту безделушку из Китая, хотя и послужат поводом для написания этой, очень полезной(нет) статьи.
Вы слишком категоричны. Эта карта имеет 4Гб памяти, благодаря чему я на ней спокойно прошел Death stranding и сейчас играю в Cyberpunk 2077. Да частота кадров держится в районе 25-30 но играть можно.

Для покупки мощной встройки например от AMD нужно купить новый процессор, а чтобы купить новый процессор нужно поменять материнскую плату и скорее придется поменять память. Это не говоря о том что встроенная карта использует для своих нужд оперативную память процессора которая намного медленнее памяти GDDR5 которую использует RX 560.
категоричен — о да.
но играть на этом в киберпук — кровь из глаз, уж проще на ютубе пройти… Та же 1050(ti) способна на большее, ну а про остальные и говорить на приходится.
Просто время показало что Полярисы — не ровня Паскалям, и маркетологи «в них» старались больше чем инженеры. Ну а как сама АМД с 450-460-550-560 решила сэкономить — вообще испанский стыд. Даже RX470 (570) весьма слаба и многие тайтлы уже не вывозит, несмотря на то что относительно свежа.
В общем в отличие от архитектуры GCN, которая просуществовала несколько поколений постоянно «реинкарнируя» под новыми наклейками, Полярис выступил скорее как переходная ступень к НАВИ, которая стартовала уже относительно давно, но до сих пор работает с «шероховатостями»…
Sign up to leave a comment.

Articles