Видеокарта GeForce FX5500 PCI. Когда не хватает PCI-Express


В наше время купить второй и/или третий монитор для ПК не проблема — стоят подержанные комплектующие недорого.
А вот с их подключением всё уже не так просто, особенно если сам ПК далеко не первой свежести: на встроенных в материнскую плату видеокартах второй выход может отсутствовать, PCI-E разъёмы — оказаться в дефиците, конвертеры USB3.0-VGA или USB3.0-HDMI — неприменимы из-за отсутствия самой USB3.0, а их аналоги для USB2.0 — дороже самой материнской платы.
В этом случае проблему может решить…

… использование видеокарты PCI.
Обычно при этих словах представляется нечто уровня S3 Trio с объёмом памяти в 1-2 мегабайта, практически беспомощное по современным меркам.

На самом деле выбор этим далеко не ограничивается.
Казалось бы, звезда PCI видеокарт закатилась окончательно и бесповоротно в конце 1990-х, но на самом деле это не так. Самая продвинутая из известных мне таких плат — ATI Radeon HD5450 с 2 гигабайтами DDR3.

Вполне пригодится тем, кто хочет выжать из своего компа еще чуть-чуть, а свободных слотов расширения PCI-E не осталось(в том числе и за счёт того, что PCI лучше переносит разгон компьютера). На мой взгляд, чувствуется некоторая ирония в том, что видеокарты, оснащенные медлительным интерфейсом PCI, пережили стандарт AGP, который в свое время был предложен именно для решения проблемы «бутылочного горлышка» графической подсистемы.
Заказанная видеокарта приехала в большом пакете из пупырки голландской почтой всего за 8 дней — почти рекорд.

К сожалению, таможенников возбудил факт наличия в посылке видеокарты как таковой, и они решили её вскрыть. Наверное, наслушались историй про майнинг криптовалют?

Зря старались — майнить на ней нельзя. И очень, судя по всему, от этого расстроились.
Плата была упакована в картонную коробку довольно неинформативного вида.

Из всех надписей на коробке правдой оказалось только то, что это GeForce и что оно совместимо с Windows 7.

Внутри коробки лежат видеокарта, упакованная в антистатический пакет, и компакт-диск с драйверами.
Переходника DVI-VGA нет.

Больше половины передней стороны печатной платы закрыто радиатором. Имеются выходы VGA, S-Video и DVI-I.

Между ним и видеоядром находится термопаста.

А на чипах памяти её нет, да и вообще отводу тепла от них радиатор только мешает.

Оребрение у него по сути чисто декоративное, поэтому его рекомендуется заменить.

Например, на радиатор чипсета от старой материнской платы.

Он даже по креплениям прекрасно совпадает.

Ради интереса я решил отмыть ядро от термопасты, и тут меня ждал сюрприз.

Впрочем, единственная разница между FX5500 и FX5200 — это немного отличающиеся рабочие частоты, что в наше время применительно к DirectX 9 видеокарте может представлять исключительно академический интерес(а для других есть PowerStrip).

На обратной стороне платы деталей почти нет, зато есть наклеечка с датой изготовления. Если верить ей, то плата изготовлена в августе 2016 года. А ещё там есть наклеечка, утверждающая, что плата на самом деле ATI Radeon 9550.

Чувствуется фамильное сходство, не так ли?

При подключении двух мониторов плата предварительно инициализирует тот, который подключен к VGA, но в дальнейшем считает основным подключенный к DVI.

Драйвера устанавливаются нормально, карта появляется в диспетчере устройств, после чего можно использовать расширение рабочего стола.

Параметры через GPU-Z вычитываются.

Пару рабочих столов в разрешении 1600х1200 при 32-битной глубине цвета видеокарта тянет.

По производительности плата 2003 года разработки примерно на уровне MX400, поэтому запускать на ней современные бенчмарки смысла нет — сейчас это просто два дополнительных видеовыхода в ПК.
Вывод: при цене чуть менее 17$ на момент покупки видеокарта вполне может заменить два конвертера USB2.0-VGA или USB2.0-DVI общей стоимостью 80-90$. Так что если нужно добавить пару видеовыходов, а PCI-E в дефиците, но есть свободные PCI — это неплохой вариант решения проблемы.
Планирую купить +18 Добавить в избранное +23 +37
+
avatar
+10
Второе пришествие. Еще б комменты с первого вернули бы.
+
avatar
  • bRaven
  • 22 августа 2017, 07:49
+4
Сейчас 2003?
+
avatar
+9
Что за прикол один и тот же обзор по два раза?
+
avatar
0
Первый админы потерли.
+
avatar
  • Naxall
  • 22 августа 2017, 19:59
+2
И правильно сделали: поток мыслей на несколько страниц.
Нет, что-бы сказать просто: берите любую видуху и пихайте в PCI — все. Финита ля комедия.
+
avatar
  • aik
  • 22 августа 2017, 08:31
0
Проблем с отрисовкой окон и воспроизведением видео нет?
А то многие PCI-карты, бывает, не успевают отрисовывать картинку, особенно в относительно больших разрешениях. Как раз что-то уровня geforce mx200 плюс-минус.
+
avatar
  • sir0ta
  • 22 августа 2017, 09:07
+1
Ну если чисто офис, то проблем не будет. Какой-нибудь не требовательный vlc, ну и простой контент в вебе. Но страдать некрофилией… Комп там скорее всего не такой уж и мертвый, вполне реально найти какую-нибудь 8600 или что-то немного новее с 2-3 выходами. Все эти видюхи будут иметь строго обязательно DVI-I, переходники на vga стоят 100 рублей от силы. Вот и все проблемы. Но будет хоть какая-то производительность. А тут реально mx200, только памяти по боля…
Вот у меня 550ti кажется сейчас в рабочем. В рабочем состоянии легко найти за 1000 рублей. Быдет 1 гиг оперативы. Вроде как есть и 2 гиговые. Легко тянет вот это (3 моник не переключен на вход на этот комп, но я им и так не сильно часто пользуюсь):

Бу мамка с PCI-E и какой-нибудь pentium 3440 в купе с нормальной ddr3 а не некрофилийной ddr2 (и уже легко 8 гигов, если поднатужится и найти мамку с 4 ddr слотами, то и все 16) выйдет в 5-ку. И по современным меркам вполне себе легко и не принужденно смотреть любой контент в fullhd и при этом делать еще много что.
+
avatar
  • aik
  • 22 августа 2017, 10:55
+2
Вот у меня 550ti кажется сейчас в рабочем.
Ну ведь она не PCI.
Просто у меня достаточно много компьютеров уровня c2d (всякие там E1200, E1400 и т.п.), где хотят ещё мониторов. Ставил туда старенькие PCI — mx200, riva128, rendition verite и т.п. — но тормоза даже в прорисовке окон наблюдаются. Любое видео на этих видеокартах в слайдшоу превращалось.
+
avatar
  • sir0ta
  • 22 августа 2017, 12:11
+1
Ну ведь она не PCI.
Просто у меня достаточно много компьютеров уровня c2d (всякие там E1200, E1400 и т.п.)
E1200 и иже с ними это уже 775 сокет. И мамки с ним хоть и имели vga, но зачастую или они уже имели pci-e или только его. Конечно была совсем дичь с только vga. Но это прям изначально была некрофилия. И даже первые дни продаж, даже на самых дешевых мамках уже был этот PCI-E. так что я даже не представлю что у вас там за пробелема. Самя дешевая 210 затычка уже даст вам минимум… ща достану… 3 порта. hdmi, dvi-i/d, d-sub. Т.е. минимум 2 некрофильских монитора подключить можно спокойно.
+
avatar
  • oleg235
  • 22 августа 2017, 13:33
+1
Самя дешевая 210 затычка уже даст вам минимум… ща достану… 3 порта. hdmi, dvi-i/d, d-sub.
Из которых одновременно работают только 2.
Т.е. минимум 2 некрофильских монитора подключить можно спокойно.
При этом отвалится встроенное видео от Nvidia.
+
avatar
  • sir0ta
  • 22 августа 2017, 14:24
+1
Из которых одновременно работают только 2
ну взять что-то по серьезнее этой затычки.
При этом отвалится встроенное видео от Nvidia
Не знаю как на счет старья, но на современных (точно делал такое на Z77 чипсете) можно включить первой встроенную графичку и тогда в системе останется встроенная графичка и по дефолту основным монитором в том числе биос будут лезть туда. Остальные будут так же работать. В старье может и не быть такого. Но я лчше буду смотреть в 2 монитора и лишний раз переключать, чем ловить фризы на чем-то сложнее косынки из win xp.
+
avatar
  • Aloha_
  • 22 августа 2017, 15:42
+1
Сижу как раз на Z77. Встроенное видео на одном мониторе и GTX950 на втором. Привык.
+
avatar
  • aik
  • 22 августа 2017, 13:47
0
Тут именно третий монитор хотят. Изредка четвертый, но это совсем изредка.
А затычка на pci-e даст только два монитора и вырубит встроенное видео.
Так что третий-четвертый монитор надо совать в свободные слоты. Если есть ещё pci-e — хорошо. Если же нет, то приходится шаманить с PCI или USB.
+
avatar
  • sir0ta
  • 22 августа 2017, 14:31
0
Вот www.nix.ru/computer_hardware_news/hardware_news_viewer.html?id=188148
Блин. только сейчас залез, у меня основной моник подключен к встройке… оказывается реально засада. Или 2-х чиповые видяшки или специалные какие-то 290-е.
+
avatar
  • aik
  • 22 августа 2017, 15:13
0
Встройка, по-моему, на каком-то из 115х перестала отключаться при установке дискретной. Хотя, может, на неинтеловских чипсетах под 775 тоже можно было не отключать, но тут уже точно не скажу, таких у меня в хозяйстве было мало и все уже недоступны.

А вообще максимум я шесть мониторов цеплял, правда это было во времена 98. Двухголовый матрокс и несколько s3. В реальной же жизни 95% хватает двух мониторов, третий и выше появляются редко. Но вот у меня в хозяйстве таких систем штук пять. Видеонаблюдение плюс один дизайнер.
+
avatar
0
Зачем было отдирать радиатор и оставлять память голую?
+
avatar
  • ns3230
  • 22 августа 2017, 08:42
+1
Я так думаю, автору не понравилось, что радиатор из толстого металла, но с минимумом ребер, а значит, будет только удерживать тепло почем зря. Ну а что касается памяти, то DDR на частоте 133 МГц какое-то охлаждение необходимо, как корове седло. Тем более, что родной радиатор не контактировал с чипами, там не было терможвачки или типа того.
+
avatar
  • oleg235
  • 22 августа 2017, 13:11
+1
Затем, что он памяти охлаждаться только мешает — не имеет с ней теплового контакт и не пускает к ней воздух.
+
avatar
  • Aloha_
  • 22 августа 2017, 13:47
0
Эти модули не предназначены для установки радиатора. Так что если не гнать, то и смысла нет.
+
avatar
  • Lithe
  • 22 августа 2017, 17:33
0
Память до радиатора не доставала. Там оставалась очень маленькая щель, мешающая теплообмену.
+
avatar
  • nemoi13
  • 22 августа 2017, 08:46
+5
Прекратите мучить покойников!
+
avatar
+1
А представьте, что у вас уже есть комп, полностью пассивный комп на старом процессоре типа P-III или P-IV, собранный из камней и палок, выброшенных за ненадобностью надежных оригинальных комплектующих, тех еще, доплановоустаревающих времен. А в них, частенько, отсутствовали видеослоты, за ненадобностью (приборы же) и встроены были такие видеочипы, чтобы только картинку смотреть. Так вот они мало того, шо по 35 ватт тянут, так еще и будут работать вечно, скачивая для вас бесшумно торренты. А для посмотреть может пригодится такая платка. Правда, бюджет из 0 превратиться в 1500р. ИМХО. Взял себе аналогичную NV 6200.
+
avatar
  • SilentF
  • 22 августа 2017, 10:03
+1
полностью пассивный комп на старом процессоре типа P-III или P-IV

стоит использовать только если у вас бесплатное электричество, 35 ватт это очень оптимистичное заявление. Ну и дискам IDE не долго осталось работать, в любой момент могут отказать.
+
avatar
  • Aloha_
  • 22 августа 2017, 10:08
+1
Еще некоторые MFM работают, не пугайте народ =)
А так, да, электроэнергию потребляет, ради торрента есть смысл например мобильную версию старого проца поискать если уж совсем ретро хочется. Ну или эмулятор того же ретро компа использовать.
Впрочем есть особые мазохисты, страдающие ностальгией. На днях поеду комп забирать ACER MPF-PC/710. Мой первый комп, на котором я начал учиться (параллельно с домашними бытовыми).
+
avatar
0
Там уже нет IDE, давно в SATA все переделано.
+
avatar
  • oleg235
  • 22 августа 2017, 17:20
0
35 ватт это очень оптимистичное заявление
Возьмите VIA EPIA-M. Там ещё меньше.
+
avatar
+2
Если Вы не видите адекватного юзер кейса, то это еще не значит, что его нет.
Я например тоже использую карточку из топика… первую (практически 1 в 1), S3 Trio64v+ помоему называется. Процессор у меня AMD 8320e + еще 2 видеокарты R7 240 и RX 480. В ближайшее время буду абгрейдиться на Рязань или новый 6/12 Штеуд. И нисколько не сомневаюсь, что как минимум постараюсь воспользоваться своей S3 Trio64v+, если получится, потому что она нужна.
-И для чего?
Очень просто: виртуализация.
С выходом Win10, лично мне, стало стремно от мысли, что когда-то придется переходить на «это» на десктопе, или может быть на еще что-то более мерзкое. (не хочу развивать срач, каждому своё) Собственно по этой причине окончательно вкатился в Linux. Но желание играть в еба игры никуда не делось. Отсюда и следует потребность в виртуализации. Соотвественно:
Слабая карточка PCI — хосту, просто отрисовывать букововки консоли.
Средняя карточка — десктопу, куда то же надо втыкать мониторы и нужно минимальное видео ускорение.
Мощная карточка — «прошивке для игор». И пусчай там в этой прошивке (отдельной на каждую игру): выскакивает реклама в «пуск», происходит автозапуск ненужных служб и всплывающих окон. Пущай она хоть всю информацию своего жеского диска сливает куда хочет. Не надо никаких антивирусов (в 2017 обладающих основными свойствами вирусов) и обновлений. Даже состояние системы хранить необязательно: закончил с приложением и вернул систему к моменту первой установки, без багов и тормозов и вечным триалом (вот последнее пока не автоматизировал).
Как представлю, что придется вернуться в такой виндо мирок… бррр… дрожь берет. К хорошему быстро привыкаешь.
+
avatar
  • SilentF
  • 23 августа 2017, 14:37
0
Каким гипервизором пользуетесь?
+
avatar
0
qemu-kvm
+
avatar
  • smishok
  • 23 августа 2017, 19:50
0
Не поделитесь ссылками на «подробней посмотреть» то, как это выглядит, как работает? Хотелось бы понять, может мне тоже так надо :)
+
avatar
0
Можете погуглить на тему: «vga passthrough $гипервизор_имя», ну это чисто технические моменты.
А что-то подробнее… не знаю, что вы хотите узнать?
Проблематика следующая: Windows 10 занимается на ПК пользователя множеством разных непотребств, больша́я часть ПО из Windows мира грешит тем же. Сидеть на системе Windows 10 и в окружении ПО, которое занимается непотребствами — стремно (помоему).
Решение: разделить системы/приложения занимающиеся непотребствами на изолированные зоны.
Пусчай они занимаются этим сами с собой, я участвовать в этом своими данными, поведением, метриками и прочей бигдатой не хочу. Другого метода решения, кроме как виртуализация, я не нашел. Можно было бы поискать в самой Windows или в виде стороннего приложении способ реализации ACL на подобии Selinux, Apparmor и настроить границы зон непотребств самостоятельно. Но это видится мне не реализуемым.
Во первых надо доверять самой системе или реализующему этот функционал приложению (что крайне спорно).
Во вторых настройка какой фильтрации будет в сотни раз сложнее, нежели просто запускать каждое Windows приложение в отдельной виртуалке.
+
avatar
  • smishok
  • 24 августа 2017, 17:50
0
Поправите если неправильно понял вас: ОС у вас стоит какой-то линукс, виртуалка qemu, а в ней уже крутится винда. Но как происходит разделение на видеокарты?
+
avatar
+1
Да, Debian 9, это чисто хост (десктоп тож Debian 9 и тож виртуалка).
Существует технология IOMMU (Штеуд VT-d или AMD-Vi), которая позволяет пробросить PCI устройство в виртуальную машину, причем полностью аппаратным способом, без потери производительности. Что/куда пробраcывать настраивается на уровне гипервизора.
+
avatar
  • kovax
  • 22 августа 2017, 09:10
+3
назад в будущее 4? 17 баков за карту, которую за 300р еще умудриться продать на вторичке нужно…
+
avatar
  • oleg235
  • 23 августа 2017, 17:15
0
17 баков за карту, которую за 300р еще умудриться продать на вторичке нужно…
Зато вместо APU можно обойтись CPU, который на 50$ дешевле.
+
avatar
  • ksiman
  • 22 августа 2017, 09:29
+3
Где-то я этот обзор уже видел
+
avatar
  • 2gusia
  • 22 августа 2017, 09:49
0
Я, конечно сам некромант со стажем — но полезность не понял. Не огласите конфигурацию мать-процессор-память, в которую это оказалось целесообразным воткнуть?

С тех пор много поколений всего сменилось и очень удивительно мне, что именно отсутствие второй видяхи ограничивает потребительские свойства компа?
+
avatar
  • jam_yps
  • 22 августа 2017, 12:25
0
Для проверки матери при выгоревшем PCI-e. Ну я так пользую… Работать на ней практически нельзя. СИльно тормозит. Именно 5200.
+
avatar
  • oleg235
  • 22 августа 2017, 13:18
0
Не огласите конфигурацию мать-процессор-память, в которую это оказалось целесообразным воткнуть?
Что-то там с процессором на FM2, в котором нет встроенного видеоядра.
+
avatar
  • SilentF
  • 22 августа 2017, 09:57
+7
Стадал таким (несколько видеокарт в ПК) несколько лет назад. Просто обязан вставить свои 5 копеек:
1) Дополнительная видеокарта и основная обязательно должны быть от разных производителей чипсетов (ATI-NVIDIA-SIS-3dfx): GF2MX400 и GTX650 в одном системном блоке не уживутся, банально нет драйвера, поддерживающего обе видеокарты.
2) Если при перемещении окошек на дисплее появляется шум в наушниках- помогает изменение PCI Latency в биосе материнки.
+
avatar
  • Aloha_
  • 22 августа 2017, 09:59
+3
Что в этом обзоре сделано руками?
+
avatar
  • oleg235
  • 22 августа 2017, 13:19
0
Радиатор заменён.
+
avatar
+3
некрофилии пост
+
avatar
  • demon54
  • 22 августа 2017, 10:01
0
на встроенных в материнскую плату видеокартах второй выход может отсутствовать, PCI-E разъёмы — оказаться в дефиците, конвертеры USB3.0-VGA или USB3.0-HDMI — неприменимы из-за отсутствия самой USB3.0, а их аналоги для USB2.0 — дороже самой материнской платы.
В этом случае проблему может решить…
AGP же, где AGP в перечислении? Там где нет PCI-E есть AGP. И видюхи стоят 50 рублей россыпью и S3 Trio не надо.
+
avatar
  • Aloha_
  • 22 августа 2017, 10:04
0
При мертвом AGP или если надо залить биос той же самой AGP (PCI-E). Как один из вариантов.
+
avatar
  • SilentF
  • 22 августа 2017, 10:05
0
Там где нет PCI-E есть AGP
А там, где «PCI-E разъёмы — в дефиците», AGP и не может быть.
+
avatar
  • ksiman
  • 22 августа 2017, 10:18
0
Были материнки с AGP и PCI-E одновременно :)
GA-8VT880P например
+
avatar
  • Dron_333
  • 22 августа 2017, 11:55
0
ага, только если не изменяет память одновременно они работать не могли
+
avatar
  • ksiman
  • 22 августа 2017, 13:41
0
Не могли :(
+
avatar
  • oleg235
  • 22 августа 2017, 13:20
+1
AGP же, где AGP в перечислении? Там где нет PCI-E есть AGP.
Не всегда. Видел уйму материнских плат, у которых AGP разъём не распаян. Особенно этим страдали брэндовые платы.
+
avatar
0
Именно! У меня: Compaq и Siemens, американская сборка, неубиваемые платы и компоненты (SoDiMM!!! и DDR) покрытые лаком, но… на третьем пне 1000 МГц и четвертом 1,8 (пассивное охлаждение) и без нормальной видеоподсистемы (встроенная 1 метровая не в счет)..
+
avatar
0
Переходника DVI-VGA нет.
А нафига его вкладывать, если у видеокарты уже и так есть VGA разъём?
+
avatar
  • oleg235
  • 22 августа 2017, 13:35
0
Раньше его вкладывали, чтобы пользователь мог подключить 2 VGA монитора.
+
avatar
  • 2gusia
  • 22 августа 2017, 12:41
+2
Я вот тут присмотрелся какая у вас первая видеокарта. ati firemv 2200
ТТХ нагуглил www.cnet.com/products/ati-firemv-2200-pci-64mb/specs/

Если она, то:
Interfaces
DVI-I (dual link) ( DMS-59 )
2 x DVI-I (dual link) — with adapter
Кабель такой в нерезиновой продают за 600 руб, на али за $4.5-7.5 в зависмости от конфигурации (2DVI, 2VGA, DVI+VGA) и жадности
Пример aliexpress.com/item/IMC-Hot-DMS-59-Male-to-2-Dual-Link-DVI-I-24-5-Pin-Splitter-Adapter/32639235700.html
+
avatar
  • oleg235
  • 22 августа 2017, 13:30
0
Кабель такой в нерезиновой продают за 600 руб, на али за $4.5-7.5 в зависмости от конфигурации (2DVI, 2VGA, DVI+VGA) и жадности
Я когда-то купил три таких карты вместе с этими переходниками за 12$ за всё.
У драйверов этой карты есть по крайней мере под Windows 7 забавный глюк.
Выглядит он следующим образом.
К системному блоку с ATI FireMV 2200 и GeForce 6100 подключены 3 монитора с разрешением 1600х1200.
После загрузки всё работает нормально до того момента, как видеокарты не уйдут в спячку по неактивности пользователя.
После возобновления работы разрешение монитора, подключенного к ATI FireMV 2200, скукоживается с 1600х1200 до 1024х768, и вернуть его обратно через меню настроек невозможно.
Ситуация исправляется только перезагрузкой и только до того момента, как видеокарты снова залягут в режим энергосбережения.
При только двух мониторах, подключенных к ATI FireMV 2200, таких проблем нет.
+
avatar
  • 2gusia
  • 22 августа 2017, 17:59
0
Ну если надо три… Даже интересно, для чего не хватает двух мониторов и нужно три? Биржевая торговля?

Кстати, есть и вариант подключить как дополнительный монитор iPad. Наверняка и для андроида есть.
+
avatar
  • oleg235
  • 22 августа 2017, 18:25
0
Биржевая торговля?
САПР+документация, к примеру.
Кстати, есть и вариант подключить как дополнительный монитор iPad. Наверняка и для андроида есть.
Нормальный монитор выйдет дешевле и удобнее.
+
avatar
  • mzr910
  • 22 августа 2017, 14:18
+2
раньше я pci карты держал для прошивки видеобиосов дохлых карт, а теперь у меня есть программатор
+
avatar
  • Zivers
  • 22 августа 2017, 16:39
-1
Мда. Покупка Года.
+
avatar
0
Прогнал бы 3mark, для поржать.
+
avatar
  • zulureg
  • 22 августа 2017, 21:44
0
Win2000 поддерживает? дровишки есть?
+
avatar
  • oleg235
  • 22 августа 2017, 22:47
0
+
avatar
  • vit375
  • 23 августа 2017, 09:30
0
У нас реально таможня интересуется майнинговыми картами?! Или это была шутка?) Что тогда они хотели узреть в плате? поглазеть-поржать над стариком?)…
+
avatar
  • SilentF
  • 23 августа 2017, 10:45
+1
Я из США как-то GTX770 вез- меня на всех досмотрах отводили в сторону и просили показать ее и рассказать что это и зачем. Думаю, на сканере видеокарты выглядят подозрительно с точки зрения сотрудников безопасности.
+
avatar
  • oleg235
  • 23 августа 2017, 13:11
0
У нас реально таможня интересуется майнинговыми картами?!
У нас таможня нереально интересуется возможностями влупить пошлину за превышение лимита в 22 евро в месяц и таможенный сбор.
+
avatar
  • aae
  • 26 августа 2017, 19:12
0
Как настроить видеокарту, чтобы она отьедала меньше адресного пространства?
+
avatar
  • Jericho
  • 27 августа 2017, 19:21
0
агпшные 5200 со 128 битной шиной хорошо перепрошивались в 5500, были еще 5200 с 64битной шиной.
+
avatar
  • oleg235
  • 27 августа 2017, 23:08
+2
Разница между 5500 и 5200 — +20 мегагерц частоты ядра у первой.
+
avatar
  • vismyk
  • 28 августа 2017, 16:55
0
У меня 5200 со 128 битной шиной безо всякой перешивки перегревалась до глюков, пришлось к радиатору 80х80 пропеллер приколхозить (Palit (вроде такая у меня была) вообще её с пассивным охлаждением в продажу выпустил). :/
+
avatar
  • Jericho
  • 28 августа 2017, 21:44
0
ну моя пожила у меня нормально, года два
+
avatar
  • vismyk
  • 29 августа 2017, 10:18
0
Не помню, но вроде с полгода-год промучился, потом на Радеон 9500 сменил и дальше пошли у меня АТИ и нВидии чередоваться… ;)
+
avatar
  • aik
  • 04 марта 2019, 22:50
0
Видюшка как, жива ещё?