В разгар криптовалютного бума NVIDIA дала партнёрам «добро» на выпуск специальных видеокарт для майнинга, которые представляют собой упрощённые версии игровых моделей. Ажиотаж майнинга давно прошёл, а видеокарты остались.
Карта заказана 15 января и добралась до меня 8 февраля. В общей сложности, с учётом услуг посредника, пересылки и доставки по России обошлась в $102.45.
Внешний вид
Продавец высылает в случайном порядке карты производства MSI, Gigabyte, Galaxy, Colorful и Gengsheng (за пределами Китая известна под брендом Gainward). Мне досталась Gigabyte.


Судя по
сайту производителя, карта поставляется в двух вариантах: без крепёжной планки и с однослотовой планкой. Продавец прикрутил двухслотовую планку, за что ему спасибо, но одного винта пожалел. Пришлось поправить дело синей изолентой.
А вот отломанное крепление системы охлаждения так просто не починить:

Впрочем, оставшиеся три крепления держат надёжно.
Технические характеристики
Идентичны обыкновенной
GTX 1060 WINDFORCE 6G за исключением:
- отсутствуют видеовыходы
- используется шина PCI-E 1.0/1.1 (у игровых видеокарт — PCI-E 3.0)
- система охлаждения любой ценой старается удержать температуру графического процессора на отметке 55°
- видеоускоритель не определяется драйвером как игровой (отсутствует поддержка DirectCompute и PhysX)
Системные требования
Начиная с Windows 10 1803, Microsoft реализовала подобие технологии Optimus, знакомой владельцам ноутбуков. Рендеринг в тяжёлых приложениях осуществляет дискретная видеокарта, а за вывод изображений и обработку 2D отвечает встроенное видеоядро процессора. Видеопоток передаётся по шине PCI-E, выводится через видеовыход материнской платы.
Отсюда вытекают следующие системные требования:
- Windows 10 1803 или новее
- платформа Intel как минимум 4 поколения (Haswell) или AMD Ryzen 2200G/2400G, Athlon 240GE, 220GE, 200GE. Есть подтверждения успешной работы на более старых APU (в частности A10-7870K)
- со слов продавца: не заработает на материнских платах H81/B85/Z87 (т.е. 4 поколения) производства ASUS
- наличие слота PCI-E x16. Версия роли не играет, ведь карта в любом случае работает в режиме 1.1, а вот количество линий очень важно, ведь по шине не только происходит обмен данными с процессором, но и передаётся видеопоток. PCI-E 1.0 x16 по пропускной способности и без того эквивалентна всего лишь PCI-E 3.0 x4. Ещё большее снижение пропускной способности (например, если использовать слот x8) драматически скажется на производительности.
Тестовый стенд
Успешная работа подтверждена на двух системах:
- Pentium G3420
- GA-H81M-S2PV
Танцы с бубном
Вставляю карту, подключаю монитор к видеовыходу материнской платы, и… изображение отсутствует. Экспериментальным путём установлено, что требуется изменить пару настроек BIOS, выставив указанные на скриншоте значения:

Кроме того, придётся временно отключить безопасную загрузку:

После загрузки Windows нужно установить графический драйвер на процессорное видеоядро. Обладатели Intel могут воспользоваться приложением
Driver & Support Assistant, а для поклонников AMD предназначены драйверы
Adrenalin 2019 Edition.
Кроме того, придётся отредактировать драйвер NVIDIA, чтобы он воспринимал P106 в качестве 3D-ускорителя. Последняя версия, на которой этот хак работает — 417.22. В более поздних то ли что-то изменилось, то ли NVIDIA реализовала защиту, но после установки модифицированного драйвера устройство будет висеть в диспетчере с ошибкой.
Скачиваем и распаковываем
дистрибутив, правим файл /Display.Driver/nv_dispi.inf. Методика проста — нужно найти и удалить строки, содержащие
NVIDIA_DEV.1C07 (1C07 — идентификатор P106-100). Затем в файл nvaci.inf добавить следующие строки:
после
%NVIDIA_DEV.1BE1.1243.1025% = Section064, PCI\VEN_10DE&DEV_1BE1&SUBSYS_12431025
добавить (да, на конце пробел)
%NVIDIA_DEV.1C07% = Section066, PCI\VEN_10DE&DEV_1C07
после (да, снова такая же строка)
%NVIDIA_DEV.1BE1.1243.1025% = Section064, PCI\VEN_10DE&DEV_1BE1&SUBSYS_12431025
добавить
%NVIDIA_DEV.1C07% = Section066, PCI\VEN_10DE&DEV_1C07
после
%NVIDIA_DEV.1BE1.1243.1025% = Section063, PCI\VEN_10DE&DEV_1BE1&SUBSYS_12431025
добавить
%NVIDIA_DEV.1C07% = Section065, PCI\VEN_10DE&DEV_1C07
после
NVIDIA_DEV.1BE1.1243.1025 = "NVIDIA GeForce GTX 1070"
добавить
NVIDIA_DEV.1C07 = "NVIDIA P106-100"
При желании можно поменять
NVIDIA_DEV.1C07 = "NVIDIA P106-100"
на
NVIDIA_DEV.1C07 = "NVIDIA GeForce GTX 1060 6GB"
но это ни на что не влияет, кроме отображаемого имени в диспетчере задач. Приложения наподобие GeForce Experience всё равно опознают карту как P106-100. Насколько я понимаю, это может быть изменено лишь перепайкой резисторов (страпов) на самой карте, комбинация которых и определяет то, какой PCI ID будет у видеокарты.
После этого, скачиваем
Display Driver Uninstaller, отключаем сетевой адаптер (или вытаскиваем сетевой кабель). Открываем командную строку с правами администратора и выполняем:
bcdedit /set {current} testsigning on
Перезагружаемся Запускаем DDU, чистим систему от драйверов NVIDIA:

Заходим в диспетчер устройств и выполняем «Действие» → «Обновить конфигурацию оборудования». Необходимо добиться того, чтобы вместо дискретной видеокарты отображался «3D-видео контроллер»:

Запускаем setup.exe и устанавливаем драйвер. Устанавливать GeForce Experience смысла нет, она всё равно «видит», что карта не игровая, функции типа ShadowPlay работать не будут, Выполняем чистую установку. Соглашаемся установить драйвер без проверки издателя:

После установки драйвера в диспетчере устройств не должно остаться устройств с восклицательными знаками. А GPU-Z сообщит, что у карты появилась поддержка PhysX и DirectCompute:

то есть, карта была намеренно лишена поддержки этих технологий программным путём.
Следующим шагом будет отключение автоматического обновления драйверов через Windows Update. В противном случае рано или поздно там появится более свежий драйвер, который будет автоматически установлен. В сети встречаются различные способы, но у меня сработал только один — через групповые политики. Для этого понадобится Windows 10 Professional или Enterprise. Пуск → Выполнить → gpedit.msc → Конфигурация компьютера → Административные шаблоны → Компоненты Windows → Центр обновления Windows → Не включать драйверы в обновления Windows → Включено.
Открываем командную строку с правами администратора и отключаем установку неподписанных драйверов (на неё очень нервно реагируют всякие античиты):
bcdedit /set {current} testsigning off
Перезагружаемся в BIOS, включаем безопасную загрузку там же, где отключали. Загружаемся в Windows, включаем сетевой адаптер или втыкаем сетевой кабель.
Теперь нужно сопоставить каждому 3D-приложению, которое хотим запускать на дискретной видеокарте, требуемый графический адаптер. ПКМ по рабочему столу → Параметры экрана → Настройки графики. Выбираем «Классическое приложение« и кнопкой «Обзор» находим исполняемый файл игры. Выбираем добавленное приложение → Параметры. Видим, что окно чуток расползлось, но вполне читаемо: энергосберегающим графическим процессором является встройка, а высокопроизводительным — P106-100. Если у вас не так, то вы напортачили с драйвером.
Выбираем «Высокая производительность»:

Эту операцию придётся повторить для каждой установленной игры.
Тестирование
Поскольку карта идентична по характеристикам обычной GTX 1060 6GB, то единственный вопрос, который интересует — падает ли производительность из-за низкой пропускной способности шины PCI-E 1.0.
Тесты проведены на платформе:
- Core i7-6700 ES @ 3.7 ГГц
- ASUS Z170-P
- 16 ГБ DDR4-2133 в одноканальном режиме
Unigine Valley Benchmark 1.0
Render: Direct3D11
Mode: 1920x1080 8xAA fullscreen
Preset: Extreme HD
FPS: 65.7
Score: 2748
Min FPS: 31.9
Max FPS: 125.8
Набранное количество баллов
соответствует GTX 1060 6GB.
Unigine Heaven Benchmark 4.0
Render: Direct3D11
Mode: 1920x1080 8xAA fullscreen
Quality: Ultra
Tessellation: Extreme
FPS: 61.7
Score: 1555
Min FPS: 25.5
Max FPS: 125.2
12.5% потеря производительности
по сравнению с GTX 1060 6GB.
Final Fantasy XV Benchmark

9% и 7% падения производительности соответственно.
Возможно, с более производительным процессором и двухканальным режимом работы памяти было бы получше. Также стоит отметить, что технология
Ansel работает, поскольку не привязана к GeForce Experience.
Под нагрузкой проявляется ещё одна особенность карты — она старается удержать температуру графического процессора на отметке 55°. Уровень шума при этом сложно назвать комфортным. Проблема решается указанием желаемой кривой температур в
MSI Afterburner:

При 100% нагрузки температура держится на уровне 62 градусов, а скорость вращения вентиляторов упала до 30%.
Заключение
Плюсы
- Цена
- Выводит изображения на VGA-мониторы. Как известно, у карт поколения Pascal отсутствует поддержка вывода аналогового видеосигнала, что вынуждает приобретать активный конвертер цифрового сигнала в аналоговый. В нашем случае этим занимается материнская плата
- Возможность сказать «NVIDIA, fuck you!»
Минусы
- Не работают примочки NVIDIA наподобие ShadowPlay
- Не работает аппаратный кодировщик видео NVENC (то есть, если вы, допустим, хотите записывать или стримить экран через OBS Studio, нужно запускать игру на дискретной видеокарте, а для ускорения кодирования использовать Intel Quick Sync)
- Не работают некоторые программы, выводящие оверлей поверх 3D-приложений (FRAPS и т.п.). Другие (допустим, оверлей Steam) умудряются как-то работать
Может не устроить
- Карта побывала в майнинге. С другой стороны, покупая видеокарту «с рук» вы не можете быть уверены в обратном, а продавец будет мамой клясться, что карта «не бита, не крашена, не майнила»
- Отсутствие обновлённых драйверов (впрочем, поколение Pascal уже является устаревшим и с каждым годом будет получать всё меньше поддержки)
- Требуется редакция Windows не ниже Professional (все способы, ориентированные на Home, у меня не сработали)
- Не работает панель управления NVIDIA, поскольку монитор не подключён к видеокарте NVIDIA
FAQ
Заработает ли в Linux / macOS?
Всё упирается в отсутствие пропатченного драйвера, поскольку inf-файлы там отсутствуют вовсе.
Обязательно ли заказывать из Китая?
Поскольку, начиная с Pascal, NVIDIA в обязательном порядке требует наличие цифровой подписи у прошивок, «китайские» карты не имеют какой-то особой, модифицированной прошивки. Следовательно, ничем не отличаются от доступных у нас.
Говорят, что некоторые игры не работают при таком раскладе?
Я лично проверил такие игры как Ведьмак 2, Ведьмак 3, World of Warcraft, Nier: Automata, Metro Exodus, Hearthstone. Всё работает. Не завёлся только бенчмарк 3DMark.
А если прошить BIOS от 1060 6GB?
Мне удалось пропатчить все проверки в bvflash, но.программно прошить BIOS от другого чипа невозможно, потому что Device ID видеокарты и Device ID прошивки сверяется не только утилитой, но и самим видеочипом, Нужен аппаратный программатор. К тому же, как упоминалось, это не превратит P106-100 в GTX 1060 (для этого ещё нужно колдовать со страпами), а лишь приведёт в норму обороты вентиляторов и прочее.
Какие ещё есть карты для майнинга?
P106-090 — похожа на GTX 1050 Ti, имеет более широкую шину памяти, большие частоты, но всего 3 гигабайта памяти.
P104-100 — разогнанная GTX 1070 с урезанным вдвое объёмом памяти.
P104-101 — копия GTX 1080.
P102-100 — урезанная версия GTX 1080 Ti с 5 ГБ памяти.
P102-101 — то же самое, но уже с 10 ГБ памяти.
Нужно понимать, что чем мощнее карта, тем больше она будет упираться в шину (тем более, что для P104-100 Gigabyte, например, заявляет лишь поддержку PCI-E 1.1
x4).
На всякий случай, привожу идентификаторы этих карт (драйверы модифицируются аналогично):
- 1C09 = «NVIDIA P106-090»
- 1B87 = «NVIDIA P104-100»
- 1BC7 = «NVIDIA P104-101»
Можно ли поставить такую карту в SLI с игровой?
Да, см.
тут и
тут. Причём необязательно с GTX 1060. Например, можно поставить GP106-100 в пару с GTX 1070.
Можно ли для вывода изображения использовать дешёвую дискретную видеокарту вместо интегрированного видео?
Я пробовал с GTX 650. P106-100 в этом случае не появляется в настройках в качестве высокопроизводительного графического процессора.
За обзор — Плюс и Спасибо!
Ну так то у нас переферия, в московии дешевле есть наверняка предложения…
Есть много вариантов с гарантией год полтора.
AMD дешевле, рх470, рх480, рх570 от 2тыс грн идут.
Есть и с гарантией.
Порадовало одно объявление:… в наличии 60 штук :)
Фермы фсё!
з.ы. Вот такие перлы встречаются в объявлениях.
За те же деньги можно взять обозреваемую P106, которая порвёт эту 670 в клочья.
https://gpu.userbenchmark.com/Compare/Nvidia-GTX-1060-3GB-vs-Nvidia-GTX-1060-6GB/3646vs3639
Но vizerkharkiv не прав для России, у нас 1060 3гб от 9 -10 тысяч за карту которая одна в чеке и с гарантией года на 2-3. ( ну и не с майнинга)
Не с майнинга… а как проверить? Я лично видел человека, который уверял, что карты у него не с майнинга, а заходишь в профиль посмотреть его лоты: пяток видеокарт, блок питания на киловатт с лишним, материнка, процессор Celeron. Ну ничуть не остатки фермы, ага.
3х месяцев достаточно чтобы израсходовать 3х летний ресурс жизни бытовой видеокарты.А 1 мес достаточно чтобы её пережечь.
Я у вас точно и за 10 долларов не куплю.
У меня таких стопочка на утилизацию и разборку лежит.
Сгорит через месяц у купившего.Или не сгорит, как повезёт.
А технические аргументы есть?
Суть в том что производиртель расчитывает срок работы бытовой игровой карты по деньгам.
В среднем конечно.Примерно от 3, до 5 лет ранее.
У большинства игроков отработает 3 года, у меньшинства 1 год и 5 или 8 лет.
Кому она нужна через 8 лет????
Ваш Кэп Очевидный.
Бытовая это 7 дней в неделю 5 часов.Бизнес 8 часов 5 дней в неделю.
Пром 24 часа круглый год с перерывом на обслуживание.
Материалы, конструкция и охлаждение и цена ВСЁ разное.
Вы считаете капиталиста идиотом что продаёт вам пром оборудование по бытовой цене?
Что ещё не понятно?
«3х месяцев достаточно чтобы израсходовать 3х летний ресурс жизни»
соответственно 24 месяца = 24 года, ну и так далее)
чек выцвел
подарили
покупал брату другу
болею денег надо
больше в игры не играю
майнеры =)
Даже после майнинга бывают нормальные карты.
Я бы даже сказал что после игрулек вероятность подыхания больше… В связи с тем что плата нагревается и потом остывает, и так «каждый день», шарики припоя могут потрескаться, чип отойти…
У меня вот тоже была ситуация, играл мало, видюхе 8 лет было, но в один прекрасный момент запускаю игру и комп повис, перезагружаю, на экране полосы.
Так что умереть может в любой момент.
Побойтесь бога! Мало кому так везёт.
Года 3 назад начала полосить — в духовку + поменял кондеры — работает как новая.
С учетом того, что карты покупаются через оптовые конторы, есть возможность задним числом сделать их накладную с 1й картой в чеке и гарантией, а чеки у нас не всегда дают и при рознице
ну и смысл?!
баксов 20 цена этой игрушке.
В общем, сравнивайте сами, а не слушайте, прости господи, блогеров. Вверху справа 1066, внизу P106-100
Конечно, лучше доплатить 50$-100$, чтобы увидеть эти 3-5 fps из 100 на PCI-E 3.1. (сарказм)
ru.gecid.com/video/testirovanie_nvidia_geforce_gtx_1060_3gb_i_sravnenie_3gb_vs_6gb/
Соответственно, в 6-гигабайтной версии сам чип более производительный. Такой же стоит и в P106-100.
купил себе 1060 3гига, меньше месяца назад за 2к грн!
5 выходов
с пломбами. вид как у новой!
пс я вот честно почитал, понял ещё меньше чем в обзорах кирича
Информация о модели находится в середине обзора.
Понятно, что зависит от остального железа, но может есть минимум?
У меня блок на 550 честных ватт, держит процессор в разгоне и GTX 670 (которая стояла до этого, а она жрёт побольше, чем 1060).
Остальное вы просто приплюсуете на калькуляторе исходя из железа, что у вас будет в системном блоке. Иначе никак не посчитать, если не знать конфигурацию ПК. Ну можно на вскидку посоветовать, как сделали выше, но это всё индивидуально. 450-500 ватт вам должно хватать для обычной конфигурации с небольшим запасом.
Моя 1060 на 120 ватт от блочка с mini atx запитывается, а там ни более 300 ватт. Карточке хватает.
А вот попытка запустить тест 3DMark заканчивалась ошибкой. Спасибо, что напомнили, этот момент я собирался упомянуть в FAQ, но забыл.
Но не факт, что у человека, который задал вопрос, сойдутся звёзды и конфигурация окажется подходящей.
Проинформирован, а далее ему решать, сколько он переплатил и сэкономил времени и избавится от внезапных проблем.
Я тоже хотел такую карту, но цены были от 100$. Поэтому решил не рисковать, а взял рабочий вариант и пусть на 3гб, но за вполне адекватную цену 6500.
А вот прошить в неё биос от 1060 можно (я не рискнул), в сети гуляет прошивальщик от NVIDIA, пропатченный, чтобы не ругался на попытку зашить биос от одной модели в совсем другую.
Но вряд ли от этого отрастут фичи типа ShadowPlay, потому что драйвер всё равно видит, что это не 1060 (это определяет комбинация резисторов)
Вшить подписанный и нетронутый биос от одной карты в другую можно, но только программатором, поскольку в программный прошивальщик NVIDIA встроила защиту от такого финта. Для Turing умельцы это ограничение обошли, а вот для Pascal нет.
youtu.be/9gvgWXFpacM
(Вкратце: ничего не получилось)
Достаточно профессионально и подробно все разобранно в видео.
Если
, то делайте сами бесплатно.
Можете даже свой мелкий бизнес открыть, и за 600 руб. перепаивать. Если выживете с такой ценой — почему бы и нет?
«Сколько заменить микрофон?»
— 600 рублей…
Поехал в типа «ЧиД», купил паяльник с керамическим жалом (сейчас на работе у меня), канифоль, припой, сам микрофон, за всё 450 руб отдал. Заменил.
Ещё пример. Год не помню, был в Москве проездом, зашёл на Митьку — заменить на PS лазер. Запросили 2000 руб за работу + запчасти. Спустился на этаж, купил за 850 рублей лазер, Замена заняла 15 минут. До сих пор работает.
А эти «мастера» живут по одному принципу — «лучше за рубль лежать, чем за два бежать», отсюда и цены такие
И зачем её крутить «каждые выходные»?? — Это уже от того, что дома делать нечего и жена осто… ла… — Ну, этот вариант, надеюсь, мы не рассматриваем?
И может Вы подскажете, какой среднестатистический россиянин зарабатывает 8 тр в час? Я вот зарабатываю 6 тр в день, и мне съэкономить 2 тр за 15 минут вообще то совсем не лишне…
Продавать-то можно, как новую получишь с гарантии. Я ведь не говорю, продавать отремонтированную после майнинга, как новую.
т.е. свистящие дроселями видеокарты, которые не хотят принимать по гарантии, это нормально. Вы за кого вообще, за народ или за барыг, задирающих цены?
Так что я не имел ввиду на**ки людей, а вот корпорации которые поднимают цены на свои поделки да, попытаться намахать милое дело.
Наоборот получиться, что человек купит новую видюху дешевле магазинной цены, причем новую.
P.S. А вообще статей по конкретным видеокартам у них на сайте много, так что перед тем как их покупать советую ознакомиться как они их «гробят», а потом наводят на них «марафет» перед продажей. ==> Видео.
— у неподдерживаемых карт (1060)
— у карт с разными GPU (т.е. можно воткнуть даже две карты разного поколения)
Это чисто программное ограничение.
Если кто-то реально будет это делать, я могу подписать дровину.
Хочу сыну (7 лет) поменять комп. Кто что скажет по этой железяке?
KOTIN GB-1/intel i5-8500/8G DDR4/GTX1050TI-4G/ 120G M.2 SSD + 1 ТБ HDD/Dos
Или лучше дома смотреть? У нас из магазинов только ДНС
Сам в этом толком не понимаю. Кто что скажет?
Это как придти на авторынок и вам посоветуют лимузин. А нужен был трудяга трактор или вообще газель, но вы этого не сказали никому, а лишь — «Сам в этом толком не понимаю»
По цене примерно 50+- 5 т.руб.
Да, в принципе жесткий диск и ссд на 240 гб есть (только поменял)
Конфигуратор компьютера
Спасибо!
Меня больше уливило, зачем там сисоник…
Что, говорите, вы меня не спрашивали? Так вы и автора вопроса тоже не спрашивали перед тем, как залить ему в уши свое очень важное мнение. Так что давайте, беритесь за пяльцы.
своим как то дал телефон поиграть так теперь не могу отбить их от игр.
Игры это наркотик такой же как и алкоголь как и табак.
мало того. к нам на работу стали поступать сотрудники после вузов нового поколения (так сказать новых образцов), так вот парень программист сидит сайт нам обслуживает — он не может монитор подключить к системному блоку! «монитор Карл».
за то задрот 5го разряда.
я забрал от своих.
а ютуб это вообще страх энд ужас. и дети это впитывают.
я понимаю что такое отклонится от выполнения задачи, просто забить и сказать я не могу, но этот монитор ему подключали и он ему нужен был для работы, т.е если бы он его не подключил то тупо сидел бы за более древним монитором.
i5-8500 — 18k
Asus B360 — 6.5k
8ГБ DDR4 2666 — 3.5k
GTX 1050 Ti — 11k
1ТБ HDD — 3k
120ГБ SSD — 2.5k
Корпус с БП — 2k
но вопросы гарантии как решать? весь системник отправлять?
i5-9400F OEM — 14k
DEEPCOOL GAMMAXX 200T — 1k
ASRock B360M Pro4 — 5.7k
корпус — 2.5-3k
2x8 ГБ DDR4 2666 — 7.4k
256ГБ SSD -— 3.5-4k
1ТБ HDD — 3k
Thermaltake TR2 S 550W — 3600
GTX 1060 6GB — 20k
Комментарии:
— проц чуть послабее, но для игр хватит за глаза, а отказ от встроенного видео сэкономит тысячу рублей
— кулер дешевле и лучше боксового
— материнка небольшая (я люблю маленькие корпуса), а Pro4 — лучшая серия у асрока по соотношению цена/возможности
— 8 гигабайт, на мой взгляд, игровому компьютеру впритык, я бы взял 16, но можно взять 2*4 на первое время, а в будущем докупить ещё
— корпус вещь субъективная, смотрите, чтобы кулер влез по высоте… я бы смотрел на Thermaltake Versa под mATX, а дальше по вкусу (внешний вид, наличие бокового окна)
— SSD, как мне кажется, лучше взять на 250-256 гигов… потому что и на рабочий стол хочется навалить кучу файлов, а места много не бывает
— БП, конечно, чуток избыточен, но, когда он не нагружен «впритык», то и работает тише, и жффективность повыше
Как уже писал корпус, хдд и ссд на 240гб уже есть. Без них по цене 51,7 т.р. Самое то!!!
Даже на новую мышку останется)))
itc.ua/articles/pk-mesyatsa-yanvar-2019/
на сайте каждый месяц выкладывают несколько конфигураций на разный бюджет под Интел/АМД.
Если с этой сборки убрать корпус, хдд и ссд которые уже есть, то как раз около 50 тыр получается.
Еще один дурацкий вопрос. Что лучше Intel или AMD? И если можно, то в двух словах чем именно?
Просто раньше себе брал интел, а сейчас слышал мнение что качество интел снизилось, а амд подтянулся
еще интел где-то просчитались, и были проблемы с обеспечением спроса, поэтому интел считается сейчас дороже, а у амд есть интересные предложения. но это надо самому изучить вопрос и решить, что лучше
Для игр лучше более мощные ядра, потому что 8 ядер мало кто умеет утилизировать, 6 хватит с головой, а там уже начинает рулить тот, у кого ядра мощнее.
Ещё и в частоте памяти будет разница. Если Intel себя прекрасно чувствует на 2133 или 2666 (а выше 360-й чипсет и не умеет), то с AMD разница между памятью 2133 и 3000 МГц составит примерно 10% производительности. Ну и AMD можно разгонять, в то время, как у Intel разгоняемые процы стоят совсем уж неприличных денег.
Спасибо!
Цитата с сайта Галакс. «Из того, что было «Galaxytech», мы теперь представляем вам «GALAX» „
Галакс никакого отношения к Палиту не имеет и не имел!!! Не путайте с Гейнвард!
Из-за предвзятого отношения цена на нее ниже, а работала она с постоянным контролем температуры, постоянной температурой без перегрева, в отличие от геймерских карт (тут надо сделать отступление, возможен вариант, что к майнинговой карте относились небрежно, но в то же время такое отношение ко всем геймерским), работающих в режиме постоянного изменения температуры от комнатной до перегрева.
Потому что помещение НЕ жилое с кондиционированным воздухом, охлаждённым.Если майнер поставит кондиционер то прогорит на бабки только по электричеству.
Ну и использование не БЫТОВОЕ 5 часов в сутки а промышленное 24/7/12 мес.
Но школьники же об этом не знают!
Ещё они типа «не знают» что майнеры гоняют бытовые карточки в промышленном режиме с ПОСТОЯННОЙ максимальной 100% нагрузкой с бытовым охлаждением расчитанным на периодическую НЕ постоянную нагрузку видеоигр 50/50.
Кароче-выше в постах лапша на уши от майнеров.
Не бита не крашена не майнена.Берите наши карточки! Они самые самые… лучше новых.Они же постоянно РАБОТАЛИ!
С разгоном и перегревом.
Расскажу про себя. Для развлечения имел дома на балконе ферму 4х1066. Дык вот эти 1066 температур выше 60-ти градусов не видели, и раз по полгода чистились и смазывались (благо, вентиляторы в палитах достать можно пальцами). А в это время в компе стояла gtx 750, которая и 90 градусов под танками периодически видела, и троттлила иногда в более серьезных играх. Но в майнинге не участвовала никогда. А теперь внимание, вопрос — какую карту вы бы у меня приобрели, будь такая необходимость, при условии, что я вам чесно сказал, что карты после майнинга?
Зыж написал же, что при необходимости купить именно б\у.
Потому что 99% моих задач перекрывает встроенное видео.
Какую вы там информацию собрались кондиционером стирать? Нифига не понял, учитесь выражать свои мысли понятнее…
А по поводу помещений, я рад, что вы там бываете. Вопрос в том, бывали ли там сервера, описанные выше по треду. Но, чукча походу ни разу не читатель, по этому и логику он нот дететктед.
Сейчас всё стало лучше?
На сервере матери
Сервер ОЗУ
Сервер проц.
И майнинг видюхе.
Накидать ссылки для сборки. И ценник.
У него всё равно моник 1280x1024 и более широкий он не хочет.
ууу Вася, да ты попал, минус 20-30% производительности
Насколько мне известно потеря будет, но в районе 3-5%.
на панде по 50-70% кто мешал брать НОВЫЕ 1060\1070
Ах да, тут же еретики про панду люто молчали и минусили 3 месяца
Но только не на такую с модифицированным биосом )))
ну не нравится вам зелёная фирма, зачем так выражаться?
А вообще есть какой-то способ/ы определить использовалась ли для майнинга или нет б/у карта, ведь продавец может и умолчать или наврать при покупке.
Наверное пора уже внедрять в видеокарты что-то наподобие счётчика пробега или т.п. которая как-то фиксировала «пробег» карты, ну или типа VIN как в машинах, или уже? :)
Пробег ничего не даст, больше даст количество циклов нагрев — остывание, и все равно это не панацея.
Аналогия с лампочкой, которая светит постоянно — работает годами.
И бумагу на вас в прокуратуру.
Врёте опять нагло.Современная лампочка в коридоре постоянно рботает 300 часов.
Годами работают лампочки 1914 года выпуска.
Опять майнер лапшу развешивает.Типа не знает что такое нароботка в часах.Как от температуры зависит старение РАЭ.
И чем бытовые приборы отличаются от промышленных.