на что поменять 1060 6гб
GTX 1060 против RTX 2060: какой смысл в новом поколении видеокарт?
Последняя видеокарта Nvidia GeForce RTX 2060 действительно очень мощная для текущего поколения игр. Несмотря на то, что она почти в два раза дороже GTX 1060 6GB, повышение частот, которые вы получаете от RTX 2060, стоит того. Особенно если вы ищете карту для 2560×1440, которая может даже не напрягаясь на максимальных настройках.
Производительность GTX 1060 против RTX 2060 в 1080p
Начнем с производительности 1920×1080. Как видно, разница довольно значительная. GTX 1060 всегда был хорошим для игр с разрешением 1080p, но сейчас карта сдает свои позиции, и в большинстве игр я получаю провалы в FPS ниже 60 кадров (Shadow of the Tomb Raider можно сбавить настройки AA до SMAAT x2).
1080p | RTX 2060 | GTX 1070 | GTX 1060 | RX 590 |
Shadow of the Tomb Raider | 94 | 80 | 57 | 70 |
Ghost Recon: Wildlands | 90 | 79 | 62 | 66 |
Far Cry 5 | 112 | 100 | 75 | 83 |
RTX 2060 просто справляется с всеми играми. Не говорю, что Shadow of the Tomb Raider плохо идет на GTX 1060 на самых высоких настройках, но если вы стремитесь к совершенству, то RTX 2060 привлекательнее.
То же самое происходит в Ghost Recon: Wildlands, всегда выше 60 кадров в секунду на RTX 2060. Для сравнения GTX 1060 мог осилить 50-75 кадров. Опять же: можно чуть снизить настройки графики, чтобы получать приятные и стабильные 60 кадров. А если у вас монитор с высокой частотой обновления, то с ним RTX 2060 уже не справится.
Производительность GTX 1060 против RTX 2060 в 1440p
И вот мы добрались до сути вопроса. GTX 1060 все еще вполне хорошая карта в разрешении 1080p, а вот производительность при 2560 ×1440 падает (или оставляет желать лучшего). Но это все еще неплохой выбор для 1440p, если вам достаточно средних настроек. RTX 2060 тут чувствует себя вполне комфортно, но не максимально.
1440p | RTX 2060 | GTX 1070 | GTX 1060 | RX 590 |
Shadow of the Tomb Raider | 64 | 50 | 35 | 47 |
Ghost Recon: Wildlands | 68 | 59 | 44 | 49 |
Far Cry 5 | 81 | 70 | 50 | 59 |
В большинство современных игр с GTX 1060 просто не сможете играть на максималках. Иногда даже просадки ниже 30 кадров в секунду.
Ладно. RTX 2060 позволяет улучшить качество игры не менее, чем на 50%, а то и 80% в Shadow of the Tomb Raider (опять же, с SMAA x4 эффектом сглаживания). Приходится признать, что в большинстве игр эти заветные 60 кадров в секунду будут не всегда. Но если раньше приходилось раскошелиться на GTX 1070 или 1070Ti, которые в тех же играх дают похожие RTX 2060 цифры, это все равно довольно неплохо. Особенно если учитывать, что RTX 2060 стоит дешевле GTX 1070Ti.
Так какой смысл в RTX 2060?
Если вы владелец GTX 1060 и хотите получать от 1440p монитора больше, то вам есть смысл подумать о покупке. Однако если у вас монитор 1080p, то GTX 1060 прослужит вам еще долго, особенно если вы не мечтаете о рейтрейсинге в играх.
Эффективность (соотношение фреймрейта в играх к цене карточки) RTX 2060 почти совпадает с RTX 1060. Цена кадра в секунду не изменится, если вы предпочтете более дорогую RTX 2060. Но примечательно, что она становится беспроигрышной альтернативой GTX 1070 и 1070 Ti.
GeForce GTX 1060: видеокарта, которой хватит еще на 2-3 года при разумном подходе
Постоянные читатели моего блога уже знают, что я за начало 2020 года умудрился сделать два апгрейда. Сначала я поменял свой поросший мхом компьютер на базе Core i5-3570 и сильно греющуюся Gigabyte GeForce GTX 1060 G1 Gaming 6G на совершенно новый компьютер.
реклама
Основу его составили Ryzen 5 1600 AF, ASROCK B450M-HDV R4.0, PALIT GeForce GTX 1660 Dual и 16 ГБ CRUCIAL CT8G4DFS8266 с частотой 2666 МГц.
реклама
У нас есть всего один компьютерный магазин с дикими ценами и унылым ассортиментом. Поэтому среднестатистический школьник со сгоревшей GeForce GTX 750 сталкивается с серьезными трудностями. И тут на помощь приходят Авито, знакомые и Zystax.
реклама
Цена на б/у железо у нас близки к ценам нового железа из-за вышеописанных причин. А стоимость обслуживания компьютеров и ноутбуков просто за рамками понимания.
Но вернемся к моему апгрейду. Экономия на материнской плате и памяти в случае с Ryzen 5 1600 AF оказалась страшной ошибкой и я начал второй этап апгрейда. Результатом которого стал мой новый компьютер с MSI B450-A PRO MAX, 2х16 Гб 3000 МГц CRUCIAL Ballistix Sport LT AES и MSI GeForce GTX 1060 GAMING X.
Если суммировать затраты, то мой древний компьютер на Core i5-3570 сменился на новый практически без доплаты.
реклама
А теперь к теме блога. Ryzen 5 1600 AF вдохнул вторую жизнь в GeForce GTX 1060, процессор перестал быть слабым местом в системе и теперь, понижая настройки в играх, я получаю прирост кадровой частоты.
А разогнав Ryzen 5 1600 AF до 4100 МГц и память до 3466 МГц, я получил мощнейшую, но недорогую систему, которая почти не уступает Ryzen 5 3600!
Дерганная картинка и фризы, которые мучили меня на Core i5-3570 остались в прошлом!
И вот почему я не буду ее менять еще очень долго.
Во-вторых, производительность GeForce GTX 1060 устраивает меня даже сейчас, в 2020 году. Если вы играете не только в новые ААА-хиты, но и в шедевры прошлого, то нет постоянного ощущения, что видеокарта «тормозит» и желание апгрейдиться не такое острое.
В-третьих, в новых играх снижение настроек графики с «ультра» на «средние» часто почти не заметно в динамике. И если вам интересно играть в эту игру, то вы пройдете ее и на минималках с 35 ФПС.
Я в свое время проходил The Elder Scrolls IV: Oblivion на ATI Radeon 9550 на минимальных настройках и в разрешении 800х600, но удовольствия получил больше, чем от The Elder Scrolls V: Skyrim на «максималках».
Многие видеокарты прошлого, много жрущие и перегревающиеся, не вызывают желания держать их в системнике долго. Например, «калорифер» Radeon R9 390X, от которого избавлялись не столько из-за того, что он переставал тянуть игры, а из-за ощущения того, что блок питания компьютера вот-вот «бабахнет». Ну и чтобы не разориться, платя за электричество.
Да даже GeForce GTX 970, от которой GeForce GTX 1060 ушла совсем недалеко, зачастую потреблял 180 ватт в версиях ОС.
А 120-ваттную видеокарту в системнике можно и не замечать.
Ну и 6 ГБ видеопамяти пока остаются достаточными для игр в 1080p.
Вот такой мой взгляд на GeForce GTX 1060, может кто-то не согласится с моей позицией, но я с удовольствием выслушаю и другие мнения.
Переделка GeForce GTX 1060 в GeForce GTX 1070 или создание видеокарты Франкенштейна
Доброго времени суток! Пару дней назад камрад mishgane обратил мое внимание на интереснейший эксперимент, проведенный сервисным центром CORE.
К ним в руки попала неисправная видеокарта Gigabyte GeForce GTX 1060 6ГБ, которая при ближайшем рассмотрении оказалась очень интересной.
На первый взгляд выглядит как обычная, недорогая версия GTX 1060:
При ближайшем рассмотрении на себя обращает внимание необычно крупный графический процессор с маркировкой GP104:
Сравнение с обычной GeForce GTX 1060 6ГБ:
Напомню, что вариаций GeForce GTX 1060 насчитывается 5 штук. Вот таблица с характеристиками:
После последовательной проверки всех компонентов на плате инженер убеждается, что неисправен именно графический процессор. Замена его на графический процессор от GeForce GTX 1060 невозможна, так как он будет обращаться к нераспаянным банкам памяти.
Поэтому принято решение провести эксперимент, пересадив графический процессор от GeForce GTX 1070.
Чип пересажен, посмотрим, как видеокарта определится в Windows с биосом от GeForce GTX 1060:
Видеокарта определяется как GeForce GTX 1070, это важно, значит идентификатор находится в чипе видеокарты.
GPU-Z показывает вот такую картину:
При поиске биоса с минимальным для GeForce GTX 1070 лимитом потребления, выясняется первый неприятный нюанс: GeForce GTX 1070 с памятью Hynix не существует в природе. Значит, предстоит замена чипов памяти.
Если бы память оказалась производства Samsung или Micron, менять ее не пришлось.
«Франкенштейн» не хочет оживать, прошить биос от GeForce GTX 1070 обычными методами не удается. Nvidia максимально усложнила работу с неродными биосами. Приходится прибегнуть к программатору:
Жизненный цикл семейства Pascal подошел к концу, а мы так и не дождались редактора биос. Печально.
Программный комплекс mods показывает ошибки по всем чипам памяти. Тайминги памяти Hynix не совпадают с Samsung или Micron:
Теперь предстоит замена конфигурационных резисторов. Вот так они выглядят на Gigabyte GeForce GTX 1070 с памятью Micron:
Вот так на подопытной видеокарте:
А вот так на обычной GeForce GTX 1060:
Вопреки ожиданиям карта не завелась, только после перепайки конфигурационных резисторов в положение, как на GeForce GTX 1060, тест памяти пройден:
Видеокарта инициализируется в Windows, драйвера устанавливаются, даже майнинг Ethereum идет без ошибок.
Но, серьезная нагрузка в виде FurMark заставляет сработать защиту по питанию.
Система питания осталась от GeForce GTX 1060 и 4 фазы явно не хватает для более прожорливого чипа. Похоже, предстоит замена транзисторов питания.
Транзисторы верхнего плеча, довольно посредственные AON6594, рассчитанные на ток 35 ампер, заменены на QM3054M, рассчитанные на ток 97 ампер!
Транзисторы нижнего плеча, AON6360 рассчитанные на ток 85 ампер, заменены на QM3056M, рассчитанные на ток 103 ампера.
Объем переделок уже поистине впечатляет! Заменены: графический процессор, память и система питания.
После произведенной замены транзисторов и мосфетов силовая часть выглядит вот так:
После усиления системы питания Heaven benchmark работает, FurMark тоже, но потребление слишком высоко, выше 150 ватт.
Частота и напряжение слишком высоки для FurMark, потребление отображается некорректно и замеряется лабораторным блоком питания.
Придется заменить шунты у микросхемы контроля потребления. После подбора шунтов, прошивки очередного биоса, теперь уже от EVGA, и перепайки обвязки памяти, видеокарта начинает работать более адекватно, частоты и напряжение типичны для FurMark.
Надо отдать должное автору, объем доработок все растет, а он не опускает руки.
С такими навыками можно делать оверклокерские варианты плат с повышенным напряжением на GPU и усиленной системой питания.
Проверка видеокарты в 3dmark с максимальными настройками подтверждает, что используется более 6 гигабайт видеопамяти. «Франкенштейн» уже почти превратился в GeForce GTX 1070.
И наконец, после замены разъема дополнительного питания PCI-E с 6-пинового на 8-пиновый, видеокарта окончательно превращается в GeForce GTX 1070 и проходит 3dmark с соответствующей производительностью.
Выводы.
Таким образом можно переделать практически любую GeForce GTX 1060 в GeForce GTX 1070, за исключением карт с 3-мя фазами питания.
Еще данный метод позволит увеличить объем памяти 3-х гигабайтных версий GeForce GTX 1060 до 6 гигабайт. Или сделать «обрезок» от GeForce GTX 1070 с уменьшенным объемом памяти.
Все дело в конфигурационных резисторах.
Конечно, эксперимент получился довольно трудоемок и дорог, но поле применения для него огромно. После бума майнинга вторичный рынок заполнен видеокартами GeForce GTX 1070 и 1060, как в рабочем состоянии, так и не очень, так что доноров предостаточно.
Еще нужно учесть, что донор для создания «Франкенштейна» попался не самый удачный. Видеокарта с памятью Samsung или Micron и более мощной системой питания подошла бы гораздо лучше, и трудозатраты существенно уменьшились бы.
К примеру, у моей MSI GTX 1060 Gaming X 6G в биосе зашит лимит потребления по умолчанию в 200 ватт. Были моменты, во время экспериментов с редкими криптовалютами, когда ее потребление кратковременно переваливало за 160 ватт.
Защиты в драйвере, как от FurMark, от таких сценариев нет.
Теоретически, в разгоне, с небольшим повышением напряжения, под этим алгоритмом можно было получить потребление и в 180-190 ватт, но так рисковать видеокартой я не стал.
Вот такие видеокарты вполне смогут пережить пересадку графического процессора от GeForce GTX 1070 без замены системы питания.
А представляете, какие перспективы открываются в плане создания уникальных видеокарт для рекордов разгона?
Вступление
Как я понял, вам очень понравилась моя предыдущая статья с разбором видеокарты Radeon 7970 и ее техническим обслуживанием. И я снова решил порадовать вас контентом, где я что-то разбираю и показываю вам, попутно рассказывая о железе или каких-то хитростях, которые я использую при техническом обслуживании видеокарт.
реклама
И сегодня я решил впервые за три года непрерывной эксплуатации разобрать свою GTX 1060 Xtreme Gaming 6G от Gigabyte. Вместе с вами посмотреть на ее состояние, в случае чего произвести небольшое техническое обслуживание и поделиться мнением о моей видеокарте, которую все читатели прекрасно помнят по моим статейкам (та, в которую вечно «упираются» все игры при тестировании в разрешении выше чем 640×350).
Что же, давайте посмотрим, что внутри у моей карты спустя 3 года жизни со мной.
Разбор и технический осмотр
Итак, вот моя видеокарточка во всей красе и тот инструмент, при помощи которого мы будем производить вскрытие видеокарты.
реклама
Для начала выкрутим три небольших винтика, прижимающих бэкплейт к плате с лицевой стороны, а далее крест-на-крест скрутим винты, отвечающие за прижим радиатора к кристаллу. Я как обычно советую крутить легонько и крест-на-крест, постепенно ослабляя прижим каждого винта. Особо боязливые могут крутить по полоборота, я же кручу полный оборот, иногда полтора, в общем, скручиваю все винты «с трех подходов».
Если вы скрутили все винты, а плата «не хочет» отсоединяться от радиатора, то внимательно осмотрите, не забыли ли вы еще какие-то винты. Если же на плате никаких винтиков больше не обнаружено, то пробуйте снять плату круговыми движениями, а в местах «сцепления» радиатора с термопастой или с термопрокладкой, постарайтесь легонько «выкорчевывать» плавными волнообразными движениями. И делайте это именно в ближайшем месте с тем самым «контактом», чтобы минимизировать вероятность сколоть кристалл или «отодрать его с корнем».
И вот такое у людей случается, пусть это не GPU, но «кусок чипсета» на радиаторе тоже выглядит устрашающе 🙂 Поэтому если что-то не идет, то лучше это место хорошенько прогреть утюгом, горелкой или феном. Но не перестарайтесь, градусов до 100 хватит, а дальше «само отвалится». Это уже актуально для старых карт, конечно, но не суть.
реклама
Итак, вот она наша платка. Заметьте, что на ней нет ни грамма пыли, единственное, к чему можно придраться, это небольшие маслянистые пятна от термопрокладок.
Да, и не забываем отсоединять питание вентиляторов и подсветки от платы. Лучше сделать это заранее. Для этих целей отлично подходит пинцет. Также можно аккуратно потянуть за проводки, если «подковырнуть» не получается.
Только посмотрите, как текут эти прокладки, это натуральные капли на плате. Хотя ничего в этом страшного и нет.
реклама
Далее мы снимаем оставшиеся 3 винта уже с этой стороны платы, чтобы отсоединить бэкплейт.
Как мы уже могли заметить, на плате много отверстий, а под рукой выходит у нас приличная куча винтиков. И если вы боитесь забыть, что и откуда вы выкручивали, то советую регулярно делать фотографии. Также все винтики следует хранить по разным кучкам или рядам, чтобы ничего не перепутать.
Бэкплейт также может намертво прилипнуть к плате. Схема его снятия проста: сначала осматриваем на наличие «забытых креплений», а далее легонько пытаемся волнообразными движениями «отдирать» плату. Причем, делаем это именно в месте «склейки», чтобы не было лишнего рычага.
И вот мы наконец сняли бэкплейт, приступим к осмотру.
Давайте же осмотрим бэкплейт карты, который, кстати, на ощупь похож на металлический, но при этом абсолютно несерьезный, он немного гнется, но при этом хрупкий.
Немного мелкой пыли и все в жирных подтеках. Текучие термопрокладки не пощадили и его.
Попробую его аккуратно протереть обезжиривателем.
Ну, по промежуточным итогам я легонько прошелся кисточкой по плате, удалил старую термопасту с кристалла и обезжирил его, прошелся неворсистым платком по чипам памяти и цепям питания, чтобы легонько убрать с них «лишний жир», и на этом с платой закончил.
Далее приступим к осмотру радиатора.
Пыли внутри радиатора не оказалось, я просто зачистил медную пластину от старой термопасты и обезжирил это место обезжиривателем. Вы также можете использовать любой спирт или ацетон. Ну, если вообще ничего нет, то пройдитесь стеркой, которая стирает ручку (синяя такая). Только не пытайтесь таким способом «обезжирить» кристалл, вероятность его повредить крайне высока!
Далее я просто почистил термопрокладки от прилипшей грязи.
Итак, специально для приверед демонстрирую чистоту радиатора:
Ну и вот, система охлаждения была очищена легким движением малярной кисти, а медная пластина, соответственно, отшлифована и обезжирена. Также вы можете как продувать радиаторы при помощи компрессора, так и промывать их с водой с последующей сушкой. Если у вас нет компрессора, то советую приобрести листодув. Стоит намного дешевле, а эффективности хватит за глаза.
Далее мы приступаем к намазыванию термопасты на кристалл. Распределять термопасту совсем не обязательно. Достаточно просто капнуть аккуратно и чуть-чуть пасты на кристалл. Под давлением все само распределится..
Да, тут я выдавил многовато пасты. Сами понимаете, неудобно одной рукой давить, а другой пытаться сделать качественный снимок в макросъемке.
Ну и по традиции я все это дело распределяю лопаточкой, так как являюсь «адептом культа тонкого слоя». Остатки также «снял» обратной стороной лопаточки.
Если вас не устраивает, что все вокруг кристалла в термопасте, то вы можете аккуратно все это дело счистить зубочисткой или обратной стороной стержня от шариковой ручки.
Итак, в заключение провожу «тест на отпечаток» специально для читателей (вам его повторять не обязательно).
О «ровности» или «кривизне» отпечатка судите сами. Я уверен, что эксперты в комментариях намного лучше смогут пояснить, ровный отпечаток получился или нет.
Я лишь хочу продемонстрировать вам результаты прогона в FurMark, тогда вы поймете, почему я приобрел именно эту видеокарту.
Температура просто отличная, с тем учетом, что я «выкрутил» лимит по температуре и мощности видеокарты, а вентиляторы крутятся настолько тихо, что я их даже и не слышу.
Заключение
Вот такая вот получилась своеобразная статейка. Надеюсь, что мои старания не были напрасны и все это поможет кому-то с разборкой своей видеокарты.
Друзья, если вам понравилась статья и вы хотите, чтобы я выпускал для вас материал в данном направлении, разгоняя всякие железяки и проводя ТО комплектующих, то проявите активность и не поленитесь оценить статейку по достоинству, а также отзывом в комментариях.
Обязательно ждите новых выпусков с ТО комплектующих и, конечно же, нового «Некроклокинга».
6 причин, почему я не стал продавать GeForce GTX 1060 на пике цен в ожидании GeForce RTX 3060 Ti
реклама
GeForce RTX 3060 Ti
реклама
И я кинулся чистить видеокарту от пыли и устанавливать FurMark и MSI Kombustor, для демонстрации ее работоспособности покупателю. И готовить на замену видеокарту-«затычку», которой на сегодняшний день у меня является ATI Radeon HD 4870.
реклама
Sapphire RADEON HD 4870 1 Гб
Но потом, тщательно обдумав ситуацию, я отказался от продажи и решил оставить у себя GeForce GTX 1060 еще, как минимум, на несколько месяцев, и сейчас я расскажу вам почему. В первую очередь эти аргументы будут полезны владельцам сопоставимых по производительности и цене видеокарт, или ценой ниже, чем б/у GeForce GTX 1060.
реклама
«Верните мне мой 2014»
Никто из нас не знает, сколько будут стоить доллар и евро в 2021 году, а ведь курс валют влияет на цену видеокарт гораздо сильнее, чем бум майнинга. Продав сейчас видеокарту, вам придется ждать несколько месяцев, пока цены придут в норму даже при неизменном курсе валют.
Новинки всегда стоят дорого, а если и доллар с евро вырастут в цене, новая и мощная видеокарта может стать предметом роскоши. Конечно, сумму можно хранить и в валюте, но, чтобы получить «профит», курс ее должен измениться очень заметно.
По меркам видеокарт-«затычек» ATI Radeon HD 4870 еще вполне бодрая видеокарта, которая позволит поиграть даже в The Elder Scrolls V: Skyrim. Но сейчас, в 2020 году, такие видеокарты являются жутко устаревшими в плане энергопотребления. Ее фактическое энергопотребление доходит до 160 ватт, что вроде бы вполне приемлемо, но все портит энергопотребление в простое, которое зашкаливает под 100 ватт.
Даже при просмотре роликов youtube ATI Radeon HD 4870 переваливает за психологическую отметку в 100 ватт потребления, а температура моего экземпляра доходит до 80 градусов. За несколько месяцев эксплуатации этот антиквариат съест электричества на большую сумму, чем стоит сам.
Чтобы нормально пользоваться ПК, у вас должна быть или встроенная в процессор графика или энергоэффективная видеокарта-«затычка», например Radeon HD 7770.
Достаточно вспомнить, как старые поколения видеокарт заполняли рынок и вам станет понятно, что хороших цен может быть придется ждать очень долго. А если и курс биткоина будет расти, то ожидание может растянутся и на год, как в 2017 году.
Не знаю как вы, а если я продаю игровую видеокарту из ПК и начинаю пользоваться интегрированной, мне сразу остро хочется играть в требовательные игры. Даже если перед этим я три месяца не запускал ничего требовательней, чем Heroes of Might and Magic III: Horn of the Abyss.
Пишите в комментарии, а будете ли вы продавать сейчас старую видеокарту и покупать новую?