Есть необходимость работать с сериализованными txt файлами, по сути в них храниться кеш "очень удаленной" базы данных.
И если при создании сайта размеры этих файлов были в сотнях килобайт, то после активного роста сайта некоторые экземпляры стали достигать 10 Мб.
Для каждой страницы сайта открывается от 1 до 5 подобных файлов с помощью file_get_contents а затем unserialize, конечно не все по 10 Мб, но всеже.
Не особо мощная VPS пока терпит, скорость загрузки страниц на уровне, но появились вопросы:
На сколько это нормальная ситуация (в плане до размера файлов в 10 Гб можно не волноваться )?
Есть ли у php встроенные средства кеширования часто открываемых файлов и как это можно проверить?
В какую сторону посоветуете двигаться (если нужно), кроме варианта отхода от работы с файлами.
Заранее спасибо.
Спасибо всем за советы.
По факту решил пойти ранее известным и протоптанным путем: сортировка комбинации чисел по возрастанию и получение md5 hash. hash и ищется в стороннем массиве.
Бинарный поиск показался громоздким, либо мне попадались такие его реализации.
Скорее всего то что вам нужно загружается уже после загрузки страницы, а значит стандартные пути парсинга через Curl не подойдут.
В таком случае вам нужно рассматривать библиотеки вроде PhantomJS/CasperJS которые эмулируют работу браузера.
Доброго времени суток.
Ситуация следующая: есть числа от 1 до 1000. Все эти числа могут образовывать 2-х и 3-х значные уникальные комбинации, например 1-2, 2-1, 5-87, 1-2-3, 2-3-1, 47-21-93 и т.д. Но одно и тоже число может встречаться всего один раз в комбинации.
Нужно получить некий id каждой комбинации, который не будет зависеть от перестановки числ комбинации местами: id для 1-2-3 будет равным id для 3-2-1 или 2-3-1
Будет использоваться примерно так: получаем случайную комбинацию из 2-х или 3-х не повторяющихся цифр, например 57.
Дополнительно имеем массив id из "подходящих" комбинаций созданных сторонним приложением. Получаем id для 57 и циклом перебирая сторонний массив и ищем в нем наш id.
Спасибо за советы, пошел по пути создания GIT на bitbucket.org (в виду того что он бесплатный и проекты private)
Но теперь не совсем понимаю как вне отражать изменения на vds, о чем читать грубо говоря.
Я завел проект который отслеживает GIT, но собственно как обновлять?
Здравствуйте, есть следующая необходимость и не знаю как правильно ее решать:
На сейчас существуют 5 различных vds на которых по CRON крутятся одни и теже php скрипты, запланировано увеличения количества vds. Соответственно нужно решить проблему обновления скриптов на других vds при правках (сейчас я это делаю руками заменяя содержимое файлов).
Прошу совета как мне правильно поступить, чтобы не увязнуть в обновлениях скриптов.
На сейчас вижу такой вариант решения:
есть ведущий сервер на котором делаются все правки, по CRON этот сервер переводит все нужные скрипты в текстовые файлы через serialize (правда пока не знаю как это реализовать - чтение скрипта). Ведомые сервера при запуске задачи по CRON через CURL получают содержимое сериализованных файлов и выполняют их (пока не знаю на сколько это возможно).
Остановите меня пока не начал городить велосипед! Спасибо.
Тоесть имелось в виду:
1) Вы несете бред сивой кобылы
2) Когда Вам неху* делать начинают внедрять(слово нынче модное) костыл
Если да то извините меня за ты. (Добавление)
lastdays пишет:
pps88 пишет:
Если нет понятия что такое сео.
Я дико извинюсь конечно, но как может повлиять то о чем я написал выше.
Разве поддомен влияет? ссылка же не будет вести на другой сайт, понятно что на сео повлияет, если с сайта А ведет на сайт Б
С точки зрения сео - поддомен.site.ru (не путать с папкой site.ru/папка) это на 90% разные сайты. Может бана и не будет за активную перелинковку, но лучше точно не станет
и один путь к папке с рисунками /var/img/ например.
Я описывал что так не могу поступить с точки зрения сео. Проблема достаточно удачно решилась способом описанным мной выше, конечно прикрутив туда кеширование и прочие плюшки, дабы экономить ресурсы сервера.
И нет ничего общего между изображениями и СЕО (помешался народ уже на СЕО, реально...).
Я говорю об этом как потомственный сео-шник, программирование скорее как хобби. Каждая картинка с другого сайта - это внешняя ссылка, мало того - при плохом раскладе можно получить бан в поисковиках как донора так и акцептора ссылок-картинок.
Здравствуйте.
Написал свою CMS на php, и стала такая задача которую не могу решить:
Группа сайтов использует одни и те же изображения (на одном сервере), которых очень много. Возникло непреодолимое желание хранить файлы в директории одного сайта но чтобы их могли использовать все сайты. Назовем их site1.ru (на нем изображения) и site2.ru Использовать прямые ссылки изображений на site1.ru из site2.ru - нельзя!
Пробовал прописывать симлинки примерно так:
Ссылка создается и в MC (SSH) я вижу ее и переходе по ярлыку попадаю в нужную папку.
Но изображение по адресу http://site2[dot]ru/images/picture[dot]jpg не доступно, без ошибок браузера
Я не совсем понимаю эту механику и не знаю как мне это обыграть на уровне php или Apache (Centos), как заставить php смотреть в другую папку другого сайта на том же сервере но в html url изображения показывать как собственный.