Перенос баянометра на новый хостинг окончен. В качестве нового хостинга был выбран VDS на hetzner. Посмотрим как он себя покажет, но в любом случаи, хуже очень вряд ли будет
Так же хотелось бы рассказать предысторию, а так же извиниться перед всеми за регулярные проблемы в работе
Дело в том, что на ранних этапах существования баянометра в качестве хостинга я использовал сервера клиентов, которых я брал на довольно длительную поддержку. В общем то мощностей было более чем достаточно и никому это никогда не приносило никаких хлопот, но, уходит клиент - переносишь весь баянометр, что мягко говоря не ок. Так что первоначальная задумка в том, что бы предоставить бесплатный продукт для пользования без постоянного вложения средств в него, мягко говоря не состоялся, и стало понятно что для того чтобы это существовало в сколь либо стабильном виде, нужно купить отдельный VDS и не заниматься этой хренью, и был выбран хостинг который себя очень хорошо зарекомендовал, правда в формате аренды именно выделенных серверов, а не VDS. Всегда было все хорошо, без перебоев, поддержка реально 24/7, все красиво, так что кредит доверия был крайне высок, но, на поверку оказался бесконечный вагон проблем... Дело в том, что они как то на столько криво снимают бекапы серверов, что после них хочется пойти резать вены. Примеры того что случалось после "бекапов":
- Тупо отвалилось половина сервисов
- Битые таблицы базы данных
- Потеря данных
- Краш разметки
- Краш загружчика
- Затирание MBR
- Просто исчезновение всей системы в небытие
И это не преувеличение а реально список того что случалось
И вот как бы история длиться около года. Было сменено 3 дистрибутива, наверное все файловые системы, включая btrfs, xfs, ext4, ext3, ext2. Что бы не менялось - результат один и тот же. 3 часа ночи, бекап, проблемы. Не каждый день конечно, но, с завидной частотой. Иногда по месяцу ничего не происходило и все работало, а иногда я восстанавливал систему по 4 раза на неделе. В общем то, почему оно так происходит - для меня загадка. Может правда я на столько долбоеб, а может все таки хостинг дерьмо с идиотом админом. Изза чего правда чувствую себя идиотом - терпильность. Каждый раз сидел и слушал что все поправят, себя уговаривал, думал что разрешиться, вместо того что бы свалить на другой хостинг. Как говориться, первый раз - случайность, второй раз - совпадение, третий раз - закономерность. Потому повторно прошу прощения за неправильные решения принесшие столько неудобств.
Дополнительно прикрепляю сборку скринов только некоторых проблем которые происходили после магических бекапов:
Так же, вместе с переездом были немного увеличены мощности сервера
Помимо этого, сейчас идет формирование новой базы данных хешей для новой системы поиска основанной на OpenCV(ORB). Посмотрим как она себя покажет на больших объемах данных, но, результаты крайне обнадеживающие. А именно, OpenCV не очень хорошо переваривает искажения картинки, по типу watermark или смены цвета, но, ему абсолютно плевать на кроп картинки, и имея даже четверть исходной картинки - можно найти оригинал
Подробнее
SeaBIOS (version re 1-1.S.3-0-ge2fc41e-prebuiIt.qemu-project.org) Machine UUID 24d5244c-48ec-4475-8a41-ade944c4e00c Booting from Hard Disk... Boot failed: not a bootable disk No bootable device. Retrying in 1 seconds. iayanometr:/srv # touch test touch: cannot touch 'test': Read-only file system jayanometr:/srv tt Generating ”/run/initramfs/rdsosreport.txt” Entering emergency mode. Exit the shell to continue. Type "journalctl” to view system logs. You might want to save 'Vrun/initramfs/rdsosreport.txt” to a USB stick or /boot after mounting them and attach it to a bug report. Give root password for maintenance (or press Control-D to continue): Inode 2361012 was part of the orphaned inode list. Fix? yes Pass 2: Checking directory structure Pass 3: Checking directory connectivity Pass 4: Checking reference counts Pass 5: Checking group summary information Block bitmap differences: -(1474624—1474687) -(2655264—2655327) -(5308032—5308159) (5360640—5361151) -7905292 Fix? yes Free blocks count wrong for group #45 (6896, counted=6960). Fix? yes Free blocks count wrong for group #81 (27049, counted=27113). Fix? yes Free blocks count wrong for group #161 (1076, counted=1204). Fix? yes Free blocks count wrong for group #162 (4685, counted=4941). Fix? yes Free blocks count wrong for group #163 (8378, counted=9620). Fix? yes Free blocks count wrong for group #241 (3003, counted=3004). Fix? yes Free blocks count wrong (3558162, counted=3604970). Fix? yes Inode bitmap differences: -1966085 -(2361008—2361009) -(2361011—2361012) Fix? yes Free inodes count wrong for group #240 (1000, counted=1001). Fix? yes Free inodes count wrong for group #288 (6354, counted=6358). Fix? yes Free inodes count wrong (2966992, counted=2966916). Fix? yes /dev/sdal: *-*-*-*-* FILE SYSTEM WAS M0DIFIED *-*-*-*-* /dev/sdal: 178812/3145728 files (0.4/ non-contiguous), 8977942/12582912 blocks :/root#
баянометр,длиннопост
Правда, исключением из всего этого являются абузы от РКН. Я не знаю, какие у них отношения, но тот факт, что некоторые магистрали врезаны прямо в их сеть (насколько я знаю), играет большую роль.
Но если нет проблем с РКН, то хетцнер, наверное - лучше, что можно найти с ДЦ поблизости.
Другое дело, что я не знаю, что вы там делаете, в каких объемах и как, но мне очень странно, что вы не можете работать даже на дешёввх DS, которые стоят ~€50. Возможно, стоит подумать о том, что ресурсы сервера можно использовать куда эффективнее.
Вопрос о стабильности будет решен, а по по поводу запросов (это же баянометр а не торрент для ркн) не думаю, что стоит парится.
Пусть тут напишут тысячу причин, но в реалиях все проще.
Не, первое правило ведения бизнеса в РФ - золотое.
На собственном опыте (3 проекта сейчас готовлю к миграции с reg.ru) столкнулся с его невежеством и удручающим качеством услуг. Под избыточной нагрузкой сам юнит сервера уходит в ребут, объясняют защитой, хз от чего.
Подожди чуть чуть, должны обновиться DNS. Хотя странно. Уже давно должны были обновиться
Ты что-то явно делаешь не так
Но если нужен хостинг, которому насрать на абузы, то прямой путь в OVH, тут не поспоришь. Им пофиг вообще на все, не только на РКН.
* Никто никогда не забудет историю с убитыми дисками в новых дедиках
* lara вместо нормальной IP-KVM консоли. Удачи тому кто попытается с ее помощью что то сделать
* Это гавно выше, еще и платное с повременной оплатой
* То что они продают на аукционе не стоит даже пробовать арендовать
* Постоянные разьебы всего https://www.hetzner-status.de/en.html, последний раз когда я ими пользовался в течении недели корневые маршрутизаторы половины регионов падали пачками с периодичностью в 12 часов. Как вижу там до сих пор постоянные Switch fault
* Из за желания левой пятки тебя могут вежливо попросить собрать вещи и уйти за несколько дней, что непросто если инфраструктура большая. Желание может быть вызвано чем угодно - сомнительной абузой, ошибкой их сканера, подозрением в майнинге, торговле криптовалютами (или любой другой фигне, которую они считают нехорошей)
* Как-то чтобы разорвать отношения ребята серьезно попросили послать им факс с подтверждением
* Очень долго перечислять, можно почитать приключения других ребят на одном древнем форуме https://searchengines.guru/showthread.php?t=725528&page=100
Тебе вероятно повезло, моя многолетняя история взаимоотношений с хетзнером вынуждает больше никогда там ничего не держать, и терпеть отвратительный саппорт OVH
Забудь про тех.поддержку. Они не делают нихера вообще. Ответы по 12+ часов
Забудь про абузоустойчивость и что либо хотя бы капельку нарушающее даже самый мелкий закон
Забудь про то что они будут за тебя делать бекапы
В остальном вроде бы все хорошо
В общем то в случаи баянометра все 3 пункта не играют никакой роли, а цена приятная, потому такой выбор. Если бы не цена - я бы ушел к digitalocean, или собрал бы сервер максимально дешевый в размещении и кинул бы его в дата-центр
зы: упчок в августе кану убил :(
Спасибо за совет, гляну OVH
футер сайта 99% людей не читают
Более надежный вариант - считать хэш по разным метрикам, например AverageHash/BlockMeanHash/ColorMomentHash/MarrHildrethHash, и потом соответственно отсюда пытаться найти похожую картинку.
В общем, желаю успехов.