Зафиксирован первый случай выгорания разъёма 12VHPWR на видеокарте GeForce RTX 4090 / видеокарты :: технологии

технологии видеокарты 

Зафиксирован первый случай выгорания разъёма 12VHPWR на видеокарте GeForce RTX 4090

12VHPWR
connector
NVIDIA
-ti
' iIm,технологии,видеокарты

Похоже, в Сети заметили первый случай, когда 12+4-контактный (12VHPWR) переходник и разъём питания новой видеокарты NVIDIA GeForce RTX 4090 оплавились. Об этом сообщает ресурс Wccftech со ссылкой на историю пользователя Reddit под псевдонимом reggie_gakil. Пользователь опубликовал несколько фотографий, на одной из них видно оплавленный разъём питания нестандартного варианта RTX 4090, именно фото разъёма показывает, что больше всего пострадали коннекторы линии +12 В, они расположены ближе к четырём сигнальным линиям.

			
	/'Г л»!		
, ' и - т~ - -	Ам 1 •11^ЯГ j
вя [е	дщТ,технологии,видеокарты

Причины сложившейся ситуации неизвестны, владелец предполагает, что переходник питания был неисправен и планирует запросить обмен. Как утверждается, использовался фирменный переходник 12VHPWR на четыре 8-контактных разъёма из комплекта поставки модели GeForce RTX 4090 Gaming OC компании GIGABYTE, а инцидент произошёл во время игровой сессии.

Специалисты Wccftech напоминают, что при подключении кабелей и переходников 12VHPWR нужно соблюдать ряд требований. Одним из таких требований является ровное, аккуратное подключение, на разъём, штекер и кабель не должно оказываться никакого стороннего воздействия, иначе это может привести к смещению клемм и нарушению контакта. Также нельзя изгибать провода вблизи их выхода из штекера и в целом избегать чрезмерного изгиба кабеля, оставляя вокруг него достаточно пространства.


Подробнее
12VHPWR connector NVIDIA -ti ' iIm
 /'Г л»! , ' и - т~ - - Ам 1 •11^ЯГ j вя [е дщТ
технологии,видеокарты
Развернуть

Отличный комментарий!

Видяха стала жрать больше? Давайте уменьшим разъём, уменьшив площадь контакта и ухудшив теплоотвод!
Инженерные гении..
Кабанейро Кабанейро 25.10.202209:48 ссылка
+41.5
Фраза "Palit - ваш дом спалит" снова может стать актуальной
Meffol Meffol 25.10.202209:44 ответить ссылка 21.9
Палит хорошая фирма, а вот гигабут это орочьи технологии - работает пока владелец истово верит в её работоспособность
В последнее время, так и есть, но раньше было хуже
Meffol Meffol 25.10.202210:50 ответить ссылка 6.8
Именно из-за этого нужны последователи орочьей технологии. Чем больше народу верит, тем сильнее буст производительности.
Палит жестоко поплатились за желание сэкономить в свое время. Сейчас пытаются выправить ситуацию. Гигабуты идут по тем же стопам.
"ну а карты MSI - прогорают сразу в край !!!"
разрабы настолько охуели неоптимизировать свое уг что даже 4090 не справляется
Хуяк, хуяк, коммит на прод, оптимизация? Нет, не слышал.
Это буквально простые азы электротехники. Чем меньше контактов - тем лучше соединение. Но раз такого не избежать, то рид зе факинг мануал. Особенно если этой железякой дорожишь. Там правильно сказано, что полключать надо ровно, не раздербанивать контакт. Да, не перегибать. Но ещё больше смущает то, что видяху то можно купить топовую а вот о блоке питания нихуя не позаботится. Он-то(тоже вывод из электротехники сделан) потянет за собой на тот свет и видяху и проц и мать и даже Аллаха.
У меня была r9 259x2. Это такая вундервафля с двумя видеокартами на борту, водяным охдаждением, но по одному 8-пиновому контакту на чип, что для неё нифига не хватало. И выплавилось у меня точно так же как на фоточке у топикстартера. Пришлось раскромсать пластик вокруг контактов, почистить их, смазать токопроводящей смазкой и воткнуть другие штекеры. Они без пластика на видяхе дальше пролазили и обеспечивали большую площадь контакта. Пока через полгода не оплавились штекеты на стороне блока питания. Такие дела.
pm

				ШГ ■ 'ЩЯш *\ m чг^'Д ™1ШШ û
Видяха стала жрать больше? Давайте уменьшим разъём, уменьшив площадь контакта и ухудшив теплоотвод!
Инженерные гении..
Давно уже пора на такие переходить.
nostr nostr 25.10.202210:20 ответить ссылка 33.4
Такими будет блок питания к сети подключаться, а на видюху и мать такие будут идти:
А вот так будут подключаться модели для оверклокинга:
Joe Doe Joe Doe 25.10.202211:00 ответить ссылка 30.4
Это не силовой кабель, это сигнальный.
СНЦ.
Знаю. Не занудствуй.
Хочу и буду!
Знакомый конструктор по СНЦ передавал сигнал (гигабит с Джамбо фреймом) и питание в одной оплётке.
маректиноговый дизайнер сказал, что 4x8 пугает пользователей, потому что по ним понятно, что это обогревать, поэтмоу уменьшаем разъём!
Новый делаем максмально коротким, чтобы максимизировать шанс, что при сгибании будет нарушаться контакт.
olhuya olhuya 25.10.202211:01 ответить ссылка 2.8
Маркетологи они такие - им надо красиво, а не надежно. Надо больше подсветки и прочих свистоперделок, а не эффективного охлада или компонентной базы. На выходе получаем вот это вот нечто, не способное работать без личной мини электростанции и влезающее в корпуса размером с гараж.
USB-C на 100W+передачу данных:
— Ну да, ну да, пошел я нахер.
Type-C с 240W намекает что таки да.
TihonV TihonV 25.10.202212:26 ответить ссылка 2.4
Как легко впечатлить народ: повышаем напряжение при тех же мизерных токах - "вау, там 100500 Ватт!11".
А ты думаеш - им нужно что бы твоя видеокарта проработала больше гарантийного срока?!..
Ну конечно же рандомный ноунейм на диване гораздо умнее каких то там инженеров.
Ну да, в жопу надежность - и так сойдет. И пох что карта под 600вт в пике жрет - ставим 1 дохлый разъем, да еще и через переходники запитаем со старых бп. Красота.
The_ncux The_ncux 25.10.202222:54 ответить ссылка -1.2
Я в целом не могу понять как оно там работает. Вот есть у меня 12600к (ну да, я дебил, но это неважно) и есть 12700 не-К. Мой 12600к жрет как не в себя и требует гигантскую дуал-башню на 1.5 кг только радиатора, при этом конски греется 12700 который я не купил жрет всего 65 ватт и охлаждается посредственным вертикальным кулером для мини-тауеров. Производительность 12600к и 12700 +- равная. Что за долбаная магия, а самое главное какого хуя вообще блядь. Отвечая на вопрос, зачем взял 12600к а не 12700 - потому что была скидка на 12600к сначала, а потом только на 12700, а я уже взял 12600к
WRUCasul WRUCasul 25.10.202223:31 ответить ссылка -1.0
- Нанометры, сынок!
7 против 10. 10 греются больше, чем 7.
DutchL DutchL 26.10.202201:39 ответить ссылка 1.4
там разве разный техпроцесс? посмотрел на викичипе - и там и там интел 7
Правда, оба 10нм. Тогда хз.
DutchL DutchL 27.10.202221:33 ответить ссылка 0.0
*ехидные звуки злорадства*
Fuckin_A Fuckin_A 25.10.202209:51 ответить ссылка -2.1
tdp 450watt что могло пойти не так?
Сука полкиловатта на одну стоковую видюху без разгона. Впору мутить подключение водянки к системе отопления, как раньше майнеры делали
h8myself h8myself 25.10.202210:08 ответить ссылка 22.4
это еще уменьшили, изначально планировали TDP 600Вт
"ровное, аккуратное подключение, на разъём, штекер и кабель не должно оказываться никакого стороннего воздействия"

довольно затруднительно этого добиться, учитывая что кабель упирается прямо в боковую панель корпуса пк. только evga подумали об этом нюансе и в 3090 ti сделали разъем питания с другой стороны, чтобы кабель ни во что не упирался
Похоже, мемасы про компьютер, который надо вставлять в видеокарту, скоро перестанут быть мемасами. По крайней мере, так с питанием головняков не будет. В домах появится отдельная киловольтная линия под видеокарту.
Mind's I Mind's I 25.10.202210:16 ответить ссылка 14.5
Я уже лет 12 не могу зачем делают именно видеоКАРТУ. Что мешает перейти к такому-же формату, что и у ЦП, когда чип вставляется в разъём на матплате?
Как минимум у видеокарты своя память, плюс линии питания какой 4090 и 1050 сильно отличаются, плюс не хватало нам ещё огорода стандартов разъёмов для GPU, плюс отвести все тепло от материнской платы будет достаточно проблематично, плюс разместить всю начинку видео на и так уже ни разу не пустой матплате...
На ноутбуках с моноблоками так делают, но универсальность страдает сразу.
Потому что чипы видеокарты делают параллельные вычисления и очень хорошо масштабируются?
Потому что площадь топовых видеокарт займёт дофига пространства на материнке?
Потому что даже подавая питание отдельно на видеокарту разъёмы горят, а материнка + видеокарта будут есть намного больше?
Потому что для парралельных вычислений графических чипов и процессора всё равно используются разные типы памяти которые не эффективно исполнять задачи друг друга?
К чему пункты про распараллеливание? Это де всё происходит внутри корпуса.
К тому что тебе понадобится очень много сокетов на материнке чтобы вставлять и вставлять, а конструкторская сборка всех чипов в один разъём и есть видеокарта.
Э нет, видеочип-же один. Распараллеливание происходит на самом кристалле, а не за счёт множества отдельных чипов.
На GTX750 - один, на GTX760 - три, это называется масштабируемость.
760? Это сколько лет назад было? Насколько я знаю, идея с "многоядерными" видеокартами не взлетела и все вернулись к одному цельному кристаллу.
Ок, это я в глаза долбился.
Потому что видяха - это не только графический процессор, там ещё скоростная память (которой критично близкое расположение к ГП) и хуева туча обвязки для всего этого. А материнки наоборот со временем упрощаются - северный мост переехал в процессоры, vrm частично тоже. Делать монструозные материнки, в которые останется вставить проц и ГП (и 2 вида памяти, видимо - оперативную и графическую) - так себе затея.
alter alter 25.10.202211:11 ответить ссылка 0.9
Почему бы и нет. Яблоки упаковали всё, включая память в один кристалл. Настоящего мужского слияния CPU и GPU в настольных машинах мы в ближайшие годы, наверное, не увидим, но GPU с встроенной памятью и обвязкой - вообще не удивлюсь.
Всм не удивишся? Амуде уже делали так. Правда ремонтопригодность нулевая и ломалось чаще чем надо.
Sk10 Sk10 25.10.202212:57 ответить ссылка 0.4
>Яблоки упаковали всё, включая память в один кристалл
ЛОЛ ЧТО? Это system-in-package, а не SoC. В остальном НИЧЕГО уникального.
>GPU с встроенной памятью и обвязкой
В настольном сегменте было, называется HBM память. Несмотря на уберТТХ оказалась полной хуйней в следствии такой же УБЕРцены и низкой ремонтопригодности. Словишь минимальный отвал даже одного чипа памяти - выкидывается нахуй и чип и вся память. На сегодняшний день применяется только в картах для вычислительных задач.
Окей, согласен, не кристалл а пакет, по сути вопроса ничего не меняется — здоровая хреновина с ножками, которая устанавливается или заменяется всем скопом. Мы ведь об этом говорили?

Ремонтопригодность это хорошо и весело, но даже 20 лет назад никто всерьез этой ерундой не занимался. Как часто ты приходишь в сервисный центр со словами "чот у меня видяха плохо работает", и они такие "ой да, точно, тут ОЗУ барахлит, ща мы модуль перепаяем"? Сильно дорого иметь таких специалистов и оборудование на местах. По факту клиенту меняют весь продукт, брак отправляется в материнскую контору, и чаще утилизируется чем нет.
Тяжелая бандура выглядит дороже, а все производители железа хотят бабла. iGpu от AMD к примеру могли быть гораздо мощнее - но тогда бы уже конкурировали со своими же дискретками. Что есть выстрел себе в ногу...
Joe Doe Joe Doe 25.10.202211:12 ответить ссылка -0.8
1) Отсутствие стандарта. 3 вендора ГПУ и каждый будет педалировать свой сокет. И как ты можешь догадаться, первой при таких раскладах нахуй пойдёт невидео, т.к. у двух других есть полностью своя платформа

2) Видеопамять и размер сокета. HBM - дорого и сложно. Для GDDR нужно много места. Системная память (даже ddr4/ddr5) слишком медленная.
>3 вендора ГПУ

А кто третий?
Интоль.
Sk10 Sk10 25.10.202211:27 ответить ссылка 0.9
А они уже разве закрепились на рынке? Вроде-же только хотят вкатится.
Ну они уже продают карточки, так что считаются вполне. Другой вопрос качество конечного результата.
Sk10 Sk10 25.10.202211:34 ответить ссылка 1.5
Они давно делают встройки, по мощи аналогичные пятилетней давности конкурентов.
noavatar noavatar 25.10.202213:11 ответить ссылка -2.6
"Пятилетней"? Оптимист, что ли?
ERebel ERebel 26.10.202201:32 ответить ссылка 0.3
Интел, но пока лучше брать для поиграться с самой видюхой, а не играть на этой видюхе.
так а какая разница? ну будет у тебя вместо самой видюхи - занимать всё место радиатор с кулером, без охлаждения то один хуй не прокатит
в теории можно присрать full-cover waterblock, а переднюю панель корпуса превратить в большой единый радиатор - как на автомобилях

но сегодня этим точно никто заниматься не будет
Эм, вы как в своем пузыре живете) и производители такое выпускают регулярно небольшими партиями, и водоблоки есть отдельно на любую современную видяху в день релиза. И корпуса с перфорированной панелью спереди под радиатор. И даже заводские фул водо сборки на видяхи тоже не редкость.
Но да, рядовому пользователю сложна, нипанятна, это единственное что верно в твоих словах.
Sk10 Sk10 25.10.202213:00 ответить ссылка 0.6
а полукустарно это было еще в первой половине нулевых, а то и раньше.
речь о конфиге по дефолту, нужен консенсус уровня перехода от agp к pci-e, его нет и в ближ время не будет
Нужно переходить вот на такое, с удлинителем на PCI-e. История сделает оборот, игровые видео-приставки снова войдут в моду, приставляться будут вместо телевизора к системнику. Потом потребительские стандарты RAM для CPU догонят таковые для GPU, красные допилят встроенное в CPU видео, водянка станет стандартом вместо кулеров и приставки снова на время отойдут в тень, дожидаясь прорывов в технологии, нужных только геймерам. Возможно, в то же время маркетологи смогут снова окучить потребителя, начав лочить игры на определённые видео-приставки к PC, и мы получим ещё один подвид консольщиков.
pci-e 4 x16 никаким удлинителем ты не получишь.

нужно принципиально иное подключение на базе оптических кабелей, но ради десктопа никто этим заниматься не будет
PCIe 4.0 X16 Riser Cable -- тьма результатов от 15 до 150 баксов. Сейчас они до 30 см, слышал про некий "redriver/retimer", который позволит нарастить ещё длины.
Ну таки в теории, оптика на 400гбит то есть(и на 800гбит на подходе), это уже перекрывает pci-e 4.0 х16 (там 256гбит). Вопрос только в том что это серьёзное удорожание, и делать подобные интерфейсы массовыми никому не надо
Пропускная способность не единственный фактор, сколько времени надо на преобразование сигнала в оптику и обратно?
Господи боже. Разьем хуем. Просто выводим писиай назадеюю сторону матплаты и все фактически. Ну можно еще в гнутом виде его зафигачить чтоб как тут видяха стояла. Да и все. Осталось только формфактор корпуса поменять и массово внедрить)
Sk10 Sk10 25.10.202216:33 ответить ссылка -0.3
Времени, безбожно мало, не забывай что у тебя интернет проходит через добрый десяток таких преобразований постоянно, и при этом пинг до гугла 3-5мс

Зато кстати из плюсов такого интерфейса, видуху можно хоть на километр от компа утащить и без каких либо ухудшений в работе
можно будет подключать у провайдера не только интернет, но и видеопроцессорнет вторым кабелем в квартиру
qqwa qqwa 25.10.202210:35 ответить ссылка -0.3
4090 и китайский переходник за 0.99$
что могло пойти не так)
Как утверждается, использовался фирменный переходник 12VHPWR на четыре 8-контактных разъёма из комплекта поставки модели GeForce RTX 4090 Gaming OC компании GIGABYTE
tert2 tert2 25.10.202210:37 ответить ссылка 8.7
Ну так он же и говорит, что китайский за девяносто девять центов..
irrlicht irrlicht 25.10.202210:41 ответить ссылка 15.1
Ну так гигабайты это китай
так почти все Китай
фирменный переходник 12VHPWR на четыре 8-контактных разъёма из комплекта поставки видеокарты GIGABYTE.
Там из ютуберов кто только не критиковал этот разъем в его ненадёжности. Насколько помню некоторые опасались огнеопасности такого решения по уменьшению разъёма, где пины будут тонкими и слишком близко друг к другу.
Да можно купить новые блоки на ATX 3.0. Вот только получается комп собирать под видяху одну надо, а не видяху в сборке в целом. И это все равно не гарантирует безопасности о чем уже не раз поднимался вопрос. Но Нвидии видимо все равно т.к. никто не докажет что из-за разъёма мог начаться пожар в доме.
Есть в конце концов нормы на высоковольтные подключения, какой ещё разъём.
gwarlock gwarlock 25.10.202210:44 ответить ссылка 18.9
12В это не высоковольтное.
Вот причина, по которой если у вас на блоке питания нет достаточного количества линий для питания процессора/видеокарты - покупайте новый блок питания.
Люди покупают киловаттные блоки подороже, чтобы было с запасом на апгрейд. То бишь, юзать их несколько лет. А тут "ненавидия" залетает с новым разъемом... Опять новый бп брать?
Meffol Meffol 25.10.202210:53 ответить ссылка 2.7
Да. Если ты покупаешь 4090, то стоимость нового бп не должна тебя сильно напрягать
Боюсь, что 4060 тоже заразится новым разъемом, я брать под него новый бп нет желания
Meffol Meffol 25.10.202211:28 ответить ссылка 1.8
4060 не жрет 450 ватт в стоке.
вот именно, но вполне вероятно появление нового разъема в ней
Meffol Meffol 25.10.202211:50 ответить ссылка 1.6
сам по себе разъем не плох. относительно.
плохо то что нет родных бп с ним. а только переходники. на нагрузках в которых юзать переходники в принципе херовая затея.
Уже есть но мало их и дорогие.
Sk10 Sk10 25.10.202216:34 ответить ссылка 0.0
Для этого и есть переходники.
из-за которых может случиться возгорание
Meffol Meffol 27.10.202205:58 ответить ссылка 0.0
Экономя на бп ты ставишь под угрозу все остальное более дорогое железо, так как переходники будут заведомо слабым местом.
Не спорю, но слишком резкое изменение
Meffol Meffol 25.10.202211:50 ответить ссылка 0.3
А какое было бы не резкое изменение? Четыре 8-пиновых разъема? У меня на бп тоже столько нет. Как ни крути, но менять бп все равно придется, ну, или брать модели 30-й серии
Переходник кладут в комплекте с обычных 8 пин, да и эти разъёмы только для прожорливых карт.
В тему БП, интересует такой вопрос ныне.
Сижу значится на gtx 750 ti (60w) и xeon e3 1270 (80w) с бп на 450

Хочу пересесть в дальнейшем на gtx 1660s и стоит ли менять бп ? или этот выживет, понятно дело что везде указывается что нужно 500-550W но жрет она 125 + 80 с проца и выйдет всего 205 на 12 линию, на которой 360 всего.

Понятно дело что если в дальнейшем проц и сокет менять то и бп надо будет.
Советую купить сразу БП на 600, и можно будет забыть о БПшке(один хуй дешёвые)
тут палка о двух концах, если брать новый, то лучше уж на 800-900, чтобы будущие середняки и пред топы потянуть мог и прожил подольше с малыми нагрузками, с другой стороны зелёные могут опять какой-нибудь фигни нахуевертить и беги ты, дружочек, за новым бп
да вроде ок должно быть, если БП не совсем дешман, который только половину мощности выдаёт, а хотя бы ватт 300 потянет, 1660s не сильно жрёт
Если блок питания будет работать на пределе своей паспортной мощности, то он будет шуметь крутилятором и банально прослужит меньше. Всегда брал БП с запасом, хотя сидел на дешманских видеокартах и маложрущих камушках. Зато у меня где то на шкафу валяется живой фсп на 300 ватт, которых сейчас на пенсии, а свою трудовую жизнь начал еще с а2 каким то.
Сейчас с видеокартой на 120 ватт и камушком на 65 висит залман на 600 ватт.
Просто у меня в прекрасном давно жахнул нонейм 250 ватт, когда я к нему прескотт подцепил.
Зависит от БП. Если у тебя там какой-нить "Павирман 100% не китай" - то менять, если стоит условный чифтек-дипкул - то потянет.
Стандартный 8-pin поддерживает 150W, ещё 75W берётся с материнки. У меня 1080 с двумя 8-pin разъёмами. В итоге в неё можно пустить 375W, к чему такая паника по поводу 400W-атной видюхи, когда явно видно что виноват переходник, который некачественно обжали.
Amoklauf Amoklauf 25.10.202216:55 ответить ссылка 0.0
Не знаю, в чем проблема было оставить 3х8 ПИН, 3080TI (HOF) кушает 450ватт
Raezar Raezar 25.10.202221:05 ответить ссылка -1.2
Очевидно же, что проблема была в размере разъема.
Joe Doe Joe Doe 26.10.202211:07 ответить ссылка -1.1
Думаешь есть большая разница, что на видяхе длиной 350мм под питание выделят 40мм или 70мм под разъемы?
Raezar Raezar 26.10.202213:25 ответить ссылка -1.2
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
i	
ш \ \ J	/ ‘*r
Jlj