И это опять баз данных тред. Обсуждаем базы данных во всех возможных реализациях
Структуры данных, ER-модели, key-value, хранилища, снежинки, звёздочки, Оптимизируем запросы, написанные криворукими аналитиками, Создаем времянки с одной строчкой, Колонизируем индексы, Коммитим транзакции, Проводим sql-инъекции, Пиздим за кривую табуляцию в процедурах, функциях и вьюхах, Рассказываем тупым студакам, как заджойнить 2 таблички, чтобы сдать очередную лабу преподу-старпёру при смерти.
Ну и, конечно же, проходим бесплатные курсы на sql-ex за полгода и устраиваемся в ДС на 100 000 без задней мысли.
Работает прога в 6 потоков. Через какое то время в одном потоке или в парочке вылезает mysql server has gone away. Все что делают эти проги - insert примерно каждую секунду одних и тех же данных (то есть не может отправиться данных на 100 мб например, там отправляется 4 строки и 50 чисел). Я к тому что в инете предлагают увеличить пакет лимит и таймаут, но это точно не оно. В 4 потока (меньше инсертов в 1.5 раза соответственно) ВРОДЕ КАК такое не выскакивает, по крайней мере еще не было
У меня есть 300 000 word docx документов, причем каждые три-пять описывают отдельный договор. Вопрос: где их хранить? Если создавать папки в windows, получается ну очень странная структура, все будет очень медленно и ебано. 1 общая папка - 300 000 отдельных папок и в каждой еще по три папки получается, очень ебанутое решение. Существует ли метод хранения подобного количества информации в более удобном виде.
>>1315360 > Вопрос: где их хранить? Если задача состоит в том, чтобы просто сохранить 300к файлов, то БД не лучший вариант. В остальных случаях, например, создание локального портала с документооборотом, конечно же лучше хранить в БД, заодно проиндексировав все файлы.
> 1 общая папка - 300 000 отдельных папок и в каждой еще по три папки получается, очень ебанутое решение.
Кстати ты ошибаешься. Это рекомендуемый способ хранения крупного набора файлов для любой ФС.
>>1315345 Блядь, школьник, твой высер пять минут пытался понять. Весь мозг выебал и опишу как я понял. Ситуация такова, что ты открываешь соединение с БД, а оно у тебя лимитированное, твои «проги»/«потоки» не успевают выполнить операции, потому что БД закрывается.
На вид у тебя есть «прога», которая открывает БД, а дальше ты бомбишь БД запросами. И в этом твоя ошибка. Тебе необходимо асинхронно выполнять запросы, а распараллеливать в твоём случае не нужно.
>>1315383 Ну что же ты сразу про мл не написал? Конечно тогда лучше всё сохранить в БД и проиндексировать. Я бы ещё elasticsearch прикрутил. Было бы вообще удобно потом признаками наполнять...
>>1315818 >но как сделать так, чтобы они всегда давались постоянными к тем же старым данным
Щито, бля? Ты, сука, по-русски можешь писать?
Какие ключи, какие хэш + макс + ранк?
Но, если серьезно, напиши, какая у тебя СУБД и приведи по одному примеру для 2 своих кейсов: 1. Появляется новая запись, что с ней должно произойти 2. Обновляется существующая запись, что с ней должно произойти,
>>1315843 > Щито, бля? > Ты, сука, по-русски можешь писать? Пиздос, я не базист нихуя, по вашему не говорю. Кризис, сисярперов за базы сажают.
> Но, если серьезно, напиши, какая у тебя СУБД и приведи по одному примеру для 2 своих кейсов. SQL Server 16 > 1. Появляется новая запись, что с ней должно произойти Прицепиться к базе2 с ключом, продолжающим закономерность ключей в базе2. Как? > 2. Обновляется существующая запись, что с ней должно произойти, Если в базе1 - обновить и в базе2. Только как? Нужно удалить старый вариант и записать новый.
Более типично - приходят новые данные в базу1 по ключам из базы1, нужно добавить записи в базу2 под ключи базы2. Это понятно как сделать - держать словарь ключей база1-база2.
Примечание: база1 - индусская помойка, тянуть их ключи не вариант.
> Ни хуя же непонятно Пытаюсь написать понятнее, анон
>>1315843 > Щито, бля? > Ты, сука, по-русски можешь писать? Пиздос, я не базист нихуя, по вашему не говорю. Кризис, сисярперов за базы сажают.
> Но, если серьезно, напиши, какая у тебя СУБД и приведи по одному примеру для 2 своих кейсов. SQL Server 16 > 1. Появляется новая запись, что с ней должно произойти Прицепиться к базе2 с ключом, продолжающим закономерность ключей в базе2. Как? > 2. Обновляется существующая запись, что с ней должно произойти, Если в базе1 - обновить и в базе2. Только как? Нужно удалить старый вариант и записать новый.
Более типично - приходят новые данные в базу1 по ключам из базы1, нужно добавить записи в базу2 под ключи базы2. Это понятно как сделать - держать словарь ключей база1-база2.
Примечание: база1 - индусская помойка, тянуть их ключи не вариант.
> Ни хуя же непонятно Пытаюсь написать понятнее, анон
>>1315848 Если я тебя правильно понял, то тебе не нужно записи из всех таблиц копировать. А нужен какой-то механизм интеграции для тех таблиц, в которых ты заинтересован.
Я использовал такой способ: 1. Создаешь в базе1 такие таблицы: 1.1. c_integration_mode - таблица-справочник, в которой будут храниться описания всеего, что ты умеешь интегрировать id (identity), name, description 1.2. t_integration_queue - это будет табличка, в которую будут падать задания для интеграции id (identity), integration_mode_id, object_id (bigint) - айдишник нашей записи, которую хотим интегрировать, last_sync_date, is_synced (bit), last_error 1.3. t_integration_linq - таблица связей айдишников из базы1 и той базы, с которой ты интегрируешься, например, 2 id (identity), integration_mode_id, object_id (bigint) - это айдишник найшей записи, remote_object_id (bigint) - это айдишник записи, которую мы отправили на интеграцию и получили ответ
Значит, что теперь делаешь, когда осилил создание 3 табличек: 1. Инсертишь в таблицу c_integration_mode название своей первой таблички, записи из которых собираешься интегрировать, смотришь, какой айдишник присвоился записи 2. Создаешь триггер AFTER INSERT на ту таблицу, которую собрался интегрировать, в триггере insert into t_integration_queue (integration_mode_id, last_sync_date, is_synced) select 1 (айдишник, который запомнили в п.п.1), getdate(), 0 from inserted 3. Создаешь хранимку, которая будет курсором ходить по таблице t_integration_queue where is_synced = 0 and integration_mode_id = 1(то число, которое запомнили в п.п.1), заджойнив ее с настоящей таблицей с записями по object_id, и пытаться отправить в другую базу каждую запись по отдельности. (Как отправлять - это уже тебе решать: через линкед сервер, через веб-вызов из бд) Таким макаром ты ничего не проебешь, а так же сможешь получить для каждой записи айдишник (при удачной отправке) или текст ошибки (при неудачной отправке). В конце курсора делай merge таблицы t_integration_linq, если смог получить айдишник из другой базы А так же не забудь проапдейтить t_integration_queue.is_synced = 1, чтобы в следующий раз твоя процедурка эту запись не пыталась интегрировать.
Грубо говоря, ты должен создать столько "модов" (integration_mode) и написать столько процедур, сколько у тебя таблиц, которые ты хочешь интегрировать.
Ну и теперь настало время научиться все это запускать - создаешь самую главуню процедуру sp_process_integration, в которой в правильном порядке (чтобы не нарушить целостность) запускаешь все написанные до этого тобой процедуры
А саму sp_process_integration настраиваешь на запуск через Sql Server Agent.
Подскажите запрос для мускула, чтобы пронумеровать все записи в таблице числами от 1 до 8. (1,2,3,4,5,6,7,8,1,2,3,4,5,6,7,8,1,2,...) Можно конечно и рандом ебануть, но мне надо чтоб под каждой цифрой было одинаково (более менее) записей
Есть статическая, проиндексированная таблица почти на ярд записей. Регулярно код получает около 100 индексов по которым нужно сделать выборку из таблицы. Как это сделать правильно? 1) выбирать по очереди select * from where 2) залить список индексов в другую таблицу и сделать джойн?
>>1316246 ну смотри, таблица содержит записи начинающиеся с некого неуникального ID ID,field1,field2,field3.... По этому ID построен индекс create indexindename on table1(ID)
В процессе работы код получает список этих ID из внешнего источника (56,678,1245,...999999) Нужно достать все записи из БД
Это возможно? На выходе вижу только Row matched:1 и все, а мне необходимо заменить значения. UPDATE db.t1 JOIN db.t2 ON t1.id = t2.id JOIN db.t3 ON t2.id = t3.id SET col1 = CASE WHEN col1 != col2 THEN col1 = col2 END WHERE t1.id = t2.id AND t3.id = t2.id and t1.id = 2
>>1312894 (OP) Скачал пример скрипта для поиска дубликатов по несколкьким полям. Поясните плз, как работает. 1) C.. Таблицы C же нет 2) Далее идет вложенный запрос, с этим ясно 3) Е - это таблица с результатами предыдущей конструкции ? 4) JOIN Employees C что за конструкция, почему два набора данных после JOIN ?
SELECT C. FROM ( SELECT FirstName, LastName FROM Employees GROUP BY FirstName, LastName HAVING COUNT(*) > 1 ) E JOIN Employees C ON C.FirstName = E.FirstName AND C.LastName = E.LastName
>>1316327 Сконструируй один запрос >Select * >from table1 >where id in (1,2,3,...,n) В конструкцию in подставь свои айдишники, перечисленные через запятую. Получишь в плане запроса >nonclustered index seek
>>1316510 C и E - это аллиасы для таблицы и вложенного запроса, за которыми они идут в тексте запроса. После джойна у тебя не 2 набора данных, это у тебя вложенный запрос джойнится с таблицей по 2 полям: имя и фамилия.
В чем, вообще, суть запроса. Во вложенном запросе находятся такие записи, у которых по имени и фамилии в таблице есть более одной записи.
Далее этот вложенный запрос джойнится с той же самой таблицей по имени и фамилии для того, чтобы Ты мог получить уже айдишникт всех сотрудников, по которым найдены дубли.
>>1316872 что у тебя за дб? у меня задача такая - индексированная таблица на ярд записей и около сотни записей которые там надо найти. все-таки сотню записей в in перечислять как-то не очень же
>>1316888 Sql-server >как-то не очень сотню записей перечислять Так в чем тогда твой вопрос, делай так, как тебе очень. Создавай таблицы НА ДИСКЕ, инжексируй их, сканируй индекс, все это в системе, небось, где каждая милисекундочка отработки важна, и держи в голове, коннчно же, что такой функционал может работать и одновременно в нескольких потоках, например, где каждый поток будет создавать времянки. Проконсультируйся с тим лидом, а потом напиши его предложение сюда, мб я и ошибаюсь, но пока что не вижу, в чем, я тебе даже план нарисовал - объективно все.
>>1316896 >sql-server они все SQL, какой именно? mysql? mariadb? postgre? oracle? >НА ДИСКЕ, инжексируй их, сканируй индекс не на диске, а в /tmp которая суть рамдиск
>>1316968 Расскажи, что у тебя за субд такая волшебная, в которой времянки создаются в памяти.
Ну и, что самое главное, даже если ты создаешь эту таблицу в памяти, ты, все равно тратишь на это ресурсы, а зачем, когда можно тот же результат получить быстрее без таких манипуляций?
>>1316985 Это отдельный тип табличек - инмемори. Ну что ж, создавай таблицы в памяти из своего приложения, раз считаешь, что это оптимально. Я по-прежнему уверен, что это говнорешерие.
Но специально для тебя у меня есть еще более удобный способ. Загружаешь в приложение весь миллиард записей, ну и, конечно же, настраиваешь туда дозагрузку всех изменений. Очень удобно получается, все в памяти, очень быстро будешь все доставать.
Расставляю индекс на поля (gender, city) Для выборки WHERE gender = 1 AND (city = 'Москва' OR city = '') Чтобы выбрать всех кто из москвы и всех, у кого город не указан Будет ли тут индекс работать как надо?
>>1317359 >>1317366 А если мне еще надо добавить AND age between 20 AND 25 (ну или просто age > 20 AND age < 25) то ведь индекс не будет работать в промежутке этом? На age индекс не нужен если я буду всегда искать диапазоны?
>>1317401 Будет работать индекс, просто без age. Сначала найдет все записи, которве тебе нужны, без условия по age, а дальше уже среди них будет искать по age.
Храню форматированный текст в PostreSQL в виде JSON-объекта. Текст там хранится в виде блоков https://pastebin.com/PmXYgziH Хочу запилить поиск по тексту. Как сделать лучше: проходить по массиву blocks и проверять значение поля text, или же сделать отдельное поле plainText, где будет храниться чистый текст в виде обычной строки, и проверять это поле?
Добрый день, допустим есть таблица, в ней есть всякие разные столбцы, и среди этих столбцов, есть несколько с одним префиксом: setting_ , например setting_name1, setting_name2, setting_name3, ... setting_name35
Так вот, есть возможность заселектить как-то только столбцы с этим префиксом?
Что бы не писать SELECT setting_name1, setting_name2, setting_name3, ... setting_name35 FROM table_x ...
Писать SELECT * FROM table_x тоже не подходит пока что.
>>1318545 Есть конечно. В любой бд есть системные представленияи таблицы, например, в sql serverэто sys.columns И sys.tables
Просто загугли «select table column names <<название субд>>” Дальше хуяришь запрос к табличке с колонками и выбираешь только те колонки, where name like ‘setting_%’ таким образом, чтобы результатом твоего запроса стал новый запрос, который ты потом и будешь выполнять.
>>1318609 >>1318624 Обидно и стремно что нельзя просто сразу написать типа:
SELECT setting_* FROM table_x
или
SELECT setting_% FROM table_x
>чтобы результатом твоего запроса стал новый запрос, который ты потом и будешь выполнять. Не совсем понятен этот момент. Это в один запрос все то можно уместить? или я делаю сначала первый запрос, складываю результат в переменную в php и потом уже второй запрос формирую вида SELECT $settingColumns FROM table_x
как юзать bit_count для поиска схожих записей через расстояние хэмминга? У меня в таблице есть допустим 64 точки описывающих картинку. Как эти 64 точки захэшировать в строку, чтоб потом по bit_count найти ее можно было? Ну и все похожие на нее
>>1318718 Второй вариант, да. Селектишь набор колонок, перечисленных через запятую в переменную. Дальше вторым запросом формируешь селект $колумнс, как ты и написал.
Что можете посоветовать для проектирования БД? В унике использовался ERWin, но это была очень старая штука, которую можно достать только с рутрекера. И то, она не поддерживает работу с Postgres. И ещё, можно ли сделать дамп базы в Postgres, загрузить его в средство проектирования и получить визуализированную схему?
Где можно почитать о алгоритмах кластеризации данных?
Как реализованы на вебстраницах ТЕГИ. Тобишь под статьей облако тегов. Типа есть таблица статей, таблица тегов, и таблица соединяющая их? Это самый оптимальный вариант илиесть проще и лучше?
Базач, обоссы, но пожалей. Вкатился в sql-ex с нуля, нихуя не могу. Некоторые задания делаю с лету, некоторые не могу понять даже через объяснения с параллельного сайта, потому что "ну вообще пишут обычно вот так, но это не правильно, а как правильно - хуй соси" - это не объяснение решения. Какие еще есть пути? Хочу вкатить в бизнес-аналитику, но там без sql никуда. Есть вышка, но какая - даже писать стыдно.
PS Раньше мог писать простенькие новеллы в рен пай на питоне, т.е. код для меня это не непонятные закорючки и точечки.
У тебя в запросе >from product, printer просто одна таблица умножается на вторую, их еще заджойнить нужно, плюс у тебя идет проверка на минимальную цену цветного принтера, но а самом селекте выбираются все принтеры, даже не цветные.
Я бы написал, вообще, вот так >select distinct maker, price >from ( >Select TOP 1 WITH TIES >\t p.maker >\t,pr.price >from Printer pr >inner join Product p on pr.model = p.model >where pr.color = 'y' and pr.price is not null >order by pr.price asc >) dat
Но, если исправлять твой запрос, то >select distinct maker, price >from product, printer >where price = (select min(price) from printer where color = 'y') >and printer.color = 'y' >and product.model = printer.model
Что почитать, чтобы подготовиться к собеседованиям на java middle? Желательно на русском. Так вроде шарю, и запросы могу писать, и немножко оптимизировать, но хочу систематизировать все.
>>1323891 Орм - хз, какие там у джавистов Индексы, как работают, какие бывают, Планы запросов, типы джойнов для оптимизатора - хэш, луп, мёрдж Оконные функции (а к а OVER ())
>>1323921 ты передаешь не функцию, а строку. Внутри строки ты можешь подставить переменную, но и то должны быть двойные кавычки, ну или делай склеивание '... VALUES ("", "zalupa",' . date('pizda) . ', "sir")';
в мускуле нужно создавать поле с уникальным id, чтобы индексы потом накидывать? А то я чето индексы создаю, но они не заполняются (0 значений пишет), но у меня нет AI колонки
>>1325588 Есть индексы кластерные и некластерные. На одну таблицу может быть создан один кластерный индекс и сколько угодно некластерных. Если кратко, то для того, чтобы некластерные индексы работали, нужно, чтобы на таблице был кластерный индекс (Primary key - это уникальный кластерный индекс, если што), который, как раз, и создается зачастую (необязательно, но желательно) на основе уникального поля, типа id или комбинации полей, по которому/ой можно однозначно идентифицировать строку в таблице.
>>1327595 Материализованные представления, ВНЕЗАПНО. Загуглил бы, на крайний случай. Это таблица-вьюха на таблицу, которая обновляется физически вслед за родительской таблицей. Нюансов не то чтобы миллион, но они есть и анон с двача тебе все не расскажет в одном посте, потому если тебе это реально нужно - иди на docs.oracle.com и читай там про materialized views.
>>1327643 Бтв если ты про матвьюхи не знаешь, то вряд ли у тебя есть опыт разработки pl/sql, так что если надумаешь идти на собес - пройди хоть какой-то курс в инете, что ли.
>>1327714 С таким запросом тебе никакие индексы не помогут, они тупо работать не будут, потому что ты к полю применяешь функцию, а потом уже ещешь по ее результату.
>>1312894 (OP) Сап, анон. Хелп. Короче в моей мухосрани есть вакансия "Младший программист баз данных". Требований нет, кроме высшего образования и "голод новых знаний". Но в графе преимущества у них указано: опыт написания запросов SQL или работа с любыми базами данных? опыт разработки приложений БД и тест кейсы(что это?). Так вот, вакансия приглянулась, только вот я хочу подтянуть знания SQL с ни@уя. Вопросы: Где лучше подготовиться и сколько времени займет? Мне как вы понимаете не нужно знать много, но так как я слышал, что в этой компании на вакансию консультант дают решать IQ тесты, лучше уж подготовиться. Нужно ли знать вышмат? Нужно ли знать алгоритмы? Что запилить, что бы показать, что вот мол могу работать? Что такое тест кейсы?
Есть обычная таблица с первичным ключом id. Допустим, я выбрал запись с id = 393. Как мне получить запись, находящуюся на 3 позиции дальше заданного id? Нельзя тупо приплюсовать 3 к id, ибо строки из БД могут удаляться и в таблице могут отсутствовать некоторые id.
>>1330239 Эффект утки работает. Всегда полезно поговорить с самим собой. Похоже что решение до гениального просто: SELEСT * FROM articles WHERE id > 350 LIMIT 20 Я просто ищу id'ы больше заданного, но ограничиваю работу mysql нужным лимитом.
Правда все равно есть проблема. При больших величинах смещения mysql будет один хуй обходить все тысячи/миллионы записей, чтобы выдать мне последний id.
По идее, насколько я понимаю, невозможно это оптимизировать. Есть некий select с заданным сложным where. Нет иного способа получить дальние id'ы этого запроса, кроме как пробежав по всей таблице.
Как выход, можно использовать примерные значения. Если записей у меня реально дохуя, миллионы, и при условии того, что число удаленных записей << число существующих записей, то можно таки тупо примерно попадать на нужную страницу путем тупого приплюсовывания к id нужного значения.
Однако, даже если в таблице на миллион записей удалено 2 сотни, то погрешность при навигации в 200 записей существенна.
>>1330391 Более точно напишу, чтоб вопросов не было: Select dat. From ( Select a. From articles a Where a.id >= (select id from articles ar where ar.id = 393) Order by a.id Limit 3 ) dat Order by dat.id desc
>>1330408 Select dat.звездочка From ( Select a.звездочка From articles a Where a.id >= (select id from articles ar where ar.id = 393) Order by a.id Limit 3 ) dat Order by dat.id desc Limit 1
>>1330417 Нет, по сути я говно рещение предложил, твое стоило использовать, как базовое: select dat.звезда from ( select a.звезда from articles a where id> 359 limit 2 ) dat order by dat.id desc limit 1
Вкатываюсь в sql-ex. Посоветуйте годноту обновить студенческие знания про нормализацию и прочие ЕР-диаграммы. Насколько эти знания актуальны в реальных крудах? Про асид и особенно транзакции что можно почитать? Что про хранимые процедуры? Насколько глубоко это всё джуниору нужно знать? Сейчас юзаю майэскюэль, потом думаю постресс глянуть
>>1330239 С этим великолепно справится аналитическая функция LEAD, если речь идёт о нормальной СУБД (в оракле справится точно, в MS SQL с большой вероятностью). Да и любая аналитическая функция, можно отранжировать по ид и взять третий...
Пацаны, а REQUIRED это значит "Не пустой" ? Да, знаю, что русек в ide это плохо, но я перейду на англ версию когда освоюсь тут. И у меня название таблицы position какого-то хера в кавычках.
>>1335616 Банк топ10, Москва, название на дваче палить негоже, все хорошо с соцпакетом и стабильностью. Делаем отчетность, селекты и процедуры на оракле (реже вертика), визуализация в ssrs (реже tableau), это научим, там все изи. От вас исключительно знания БД и сообразительность. ЗП +- рыночная, не обидим.
>>1335933 [email protected] Кидайте резюмехи, можете пока лицо и ФИО замазать, интересуют только скиллы и опыт. Если понравитесь, кину ссылку на hh куда откликаться.
Скочал я СКУЛайт. Занес его в РАТН. Теперь из CMD могу работать с sqlite3 из любой директории. Но если я пытаюсь вызвать скулайт из терминала ВСкод, то не работает. ЧЯДНТ?
>>1337090 ... с кодом: CREATE TABLE cities ( id INTEGER PRIMARY KEY AUTOINCREMENT, name VARCHAR(255) NOT NULL UNIQUE, active BOOLEAN NOT NULL DEFAULT TRUE );
Но когда я пишу .read db.sql, то консоль пишет Error: near line 1: file is not a database ЧЯДНТ?
>>1337091 А, ну и еще ВСкод ругается на Incorrect syntax near ','. Expecting ID, QUOTED_ID, STRING, or TEXT_LEX. и Incorrect syntax near '255'. Expecting '(', or SELECT.
>>1337097 Бля, хуй к твоему вопросу подступишься, везде, сука ошибки, то ты неправильно вызываешь, то у тебя скл неверный, пиздос, еще и в трех постах, и ни хуя непонятно, где именно ругается, на той же команде?
Сделай все в одном посте и приложи скрины, пожалуйста. Ты сам почитай, что ты несешь, такое ощущение, что у тебя 30 секунд было времени, чтобы все написать, а потом у тебя кудахтер отобрали.
>>1312894 (OP) Анон, подскажи каким образом индекс по pk делает выборку по pk быстрее? У нас ведь остаётся ровно столько же записей в таблице индекса, соответственно и скорость обхода этих записей должна быть примерно одинаковой с основной таблицей.
аноны есть пример триггера с TG_NAME ? хочу создать такой триггер в котором при добавлении строки проверялось конкретное значение status и если есть совпадение то при выполнении триггера срабатывала notify/listen
Как на собеседовании отвечать на вопрос -SQL запрос медленно выполняется, как его ускорить. Отвечаю про план исполнения и индексы, но ИРЛ особо этим не занимался, что-то еще можно к ответу добавить?
1. Индексы 2. Статистика 3. Локи 4. Диски 5. Подзапросы, мб можно на вермянки переделать 6. Кэш запроса (where user_id = @user_id or @user_id is null) - всегда будет сканировать таблицу полностью, узнай, что с этим делать 7. Определение признаков, по которым идет поиск, не в самом запросе, а на этапе загрузки данных (например, where user_name like '%admin%' - проще пометить пользователя признаком user_type_id = 1, а потом искать по нему)
Как называются эти штуки, их еще указывают перед названием таблицы. Они еще объединяют таблицы. Например: huinyaname.tablename.fieldname Как называются huinyaname?
В которой очень много очень запутанных ролей и ограничений. Многие ограничения прописаны в триггерах, мол, при апдейте govno_table.column_1 сверяет имя юзера с прописанным списком (user1, user2 ...) и либо дает право либо не дает апдейтить.
Так вот. Есть ли какой-то универсальный способ как узнать, что может конкретный юзер делать с конкретными табличками и столбиками?
>>1343976 Кластеризованный индекс в Оракле называется index organized table. Некластеризованные, естественно, есть - это любой индекс по обычной таблице, или вторичный индекс по index organized table.
>>1344054 Он >>1344071 тащемта прав, но немного тебя сейчас запутает. В OLTP-системе нежелательно загружать таблицу чем-то сверх минимально необходимого, т.к. это будет замедлять каждую транзакцию. А в OLAP-системе можнов принципе все, что может ускорить частые запросы к таблице. То есть нужно учесть, как именно пользователь обращается к базе, а не просто вешать индекс по уникальному полю.
>>1344080 >нежелательно загружать таблицу чем-то сверх минимально необходимого В смысле не загружать индексами совсем? Я не могу сделать некластерный индекс не по ключу или кластерный индекс "загружает" таблицу меньше чем кластерный?
>>1344097 Нет, тут суть в другом. В оракле индекс-организованная таблица - это таблица, строки которой лежат в листовых блоках индекса. Т.е. сначала строится индекс, а вокруг него - таблица. Смысл в том, что поиск будет производиться по индексу, а вся строка - вот она, доступ быстрый. Поэтому и >>1344099. Но это дело работает хорошо в случае поиска.
В случае обычного индекса в листовых блоках лежат rowid искомых строк, на доступ к ним потребуется время. Здесь важен фактор кластеризации - это такая штука, которая говорит, разрознены ли блоки таблицы относительно индекса в ТБС. Если да - то при чтении соседних блоков индекса придется читать разные хер знает где лежащие блоки таблицы.
Кластер(речь не о нем, но расскажу тоже) - это две таблицы вокруг одного индекса. Ну, то есть у них два поля общих и на них висит индекс, а остальные - как хочешь. Можешь обращаться хоть к одной, хоть к обеим, но все равно строки обеих таблиц лежат в одном блоке. Чем-то похоже на join с using, грубо говоря.
Почему это загружает OLTP-систему. Каждый DML над индексированным столбцом будет вызывать перестройку индекса (кроме удаления - там просто освобождение блока для последующего вероятного использования до move/shrink). То есть как вставка в середину массива - нужно будет "раздвинуть" все блоки для вставки нового. И если IOT-таблица обновит тебе сразу и индекс, и таблицу одновременно, то при обычном индексе будет отдельно обновляться блок таблицы и отдельно индекса. И на это тоже нужно время. Как и на срабатывание + выполнение триггера.
В OLAP-системе в этом плане проще, там нужна скорость поиска, а не скорость транзакций, там можно вешать индексы так, как хочется/нужно. У нас в транзакционной системе индексов мало, как и триггеров, а в аналитической - в интерфейсной области их вообще нет, чтобы не замедлять выгрузку данных из систем источников.
>Я не могу сделать некластерный индекс не по ключу или кластерный индекс "загружает" таблицу меньше чем кластерный? Индекс можешь вешать на что хочешь, а вот будет ли он использоваться - это другой вопрос, зависит от обращений к таблице. Грузит он DML в эту таблицу. Но просто так в оракле ты не повесишь кластерный индекс - вон, анон выше упомянул, что это при создании таблицы указывается. А грузить DML это тоже будет, так как это тоже индекс - перестраиваться он будет при каждом DML. здесь под DML - insert/delete/update индексированного поля.
Мимо бэкэнд на скриптовой параше качает навык в сыром эскуеле. Второй день решаю задачки на одном известном сайте.
Решение крайней задачки на текущей момент получилось таким:
``` WITH query as ( SELECT TOP 0 1 as code,1 as point,1 as date,1 as inc,1 as out UNION SELECT code, point, date, inc, NULL AS outcome FROM income UNION SELECT code, point, date, NULL as inc, out FROM outcome )
SELECT point, date, SUM(out), SUM(inc) FROM query GROUP BY point, date ```
Чем больше узнаю, тем больше чувствую себя больным ублюдком. Пожалейте меня. Впереди ещё столько задачек!
Есть три столбца: дата, id, число, означающее цену. Нужно вывести для каждого id сумму этих цен за последние 20 дат с помощью аналитических функций. Не подскажите, как это делать? Не получается нагуглить
MS SQL триггер, который при обновлении строк записывает текущую дату в соответствующую колонку. ЧЯДНТ? эта штука зачем-то у ВСЕХ строк изменяет дату обновления, а не у строк, которые обновили
CREATE TRIGGER my_trigger __ON table_name __AFTER UPDATE AS BEGIN ____DECLARE @str varchar(8) ____SET @str = CONVERT(varchar(12), GETDATE(), 100)) ____UPDATE table_name ____SET BKTXT = (@str) ____FROM inserted END GO
>>1350295 >оп посте 0 инфы с чего начать изучение БД просто так не учат! Если пора подключать бд, то уже значит вкатальщик шарит чутка, если шарит то загуглит что и как учить.
>>1350386 Поставь себе какой-нибудь pgadmin или mysql workbench, читани книжку Бена Форта "Освой sql самостоятельно за 10 минут" она для начинающих реально очень хороша и вперед хуярить запросы прямо из этих приложений без всяких ЯП.
какой вписать макрос, чтобы excel автоматически давал гиперссылку на файл pdf, находящийся в той же папке, что и файл xls, если название файла pdf указано в ячейке
название файла в ячейке прописано не текстом, а через команду "сцепить"
>>1350968 Я же не ОП, чтобы шапку пилить. Дальше наделай себе разных жирных таблиц с кучей внешних ключей и упражняйся в написании эффективных запросов. А вообще тебе наверное надо на sql-ex.ru
>>1351217 Не знаю, как это точно называется в транзакте, но гугли что-то вроде new и old в триггерах. Ты не понял сути. Триггер for each row умеет работать конкретно со вставляемой строкой, а не с таблицей, тебе это и надо.
Всем привет. Извиняюсь за тупой вопрос, как можно выгрузить готовую таблицу в виде запроса insert? Нужно скопировать некоторую часть таблицы, но не всю. Очищать таблицу и импортировать не вариант - рвутся связи.
помогите построить запрос для того чтобы в с# вывести данные в Excel при этом выбирать в comboBox какие именно данные выводить. Например есть фио, отметка о посещении, дата посещения и группа, нужен запрос для того чтобы вывести конкретную группу и всех её воспитанников ебусь с этим 3 дня
>>1356996 Конечно, можно. Есть такие сервисы, как азур, но там ты будешь платить за мощности.
Можешь просто арендовать сервер, на который поставишь субд, например, на ru-vds(там дешево) Наконец, есть и бесплатные веб-хостинги, на которых можно размещать небольшие базы, в основном, my sql, конечно, однако: открыл вот для себя gearhost, на нем можно и sql server иметь.
>>1356683 Использовать для сайта точно так же, как и для приложения. Пихать можно себе в анус куда угодно, если ты хочешь использовать ее для сайта, просто пишешь у себя строку подключения, в которой указываешь расположение склайт базы, например, >SqliteConnection con = new SqliteConnection("Data Source=c:\mydb.db;Version=3;");
Подскажите, где можно было бы почитать какую-то общую информацию про базы данных, типа какую базу когда лучше применять, их плюсы и минусы, принципиальные отличия и так далее.
В частности, интересует сравнение sql и документоориентированных баз, где их лучше применять, как с ними лучше работать.
Ньюфаг итт. Укажите направление, что мне читать и изучать для моей нужды? А именно. Надо создать базу данных на компе и туда транслировать информацию через вебсокет с сайта. В этом вашем программировании не разбираюсь, но буду читать все что вы мне скажете.
Зашел в тред за шапкой, книгами там, сайтами с задачами, концентрированной годнотой, вот это всё, чтоб обмазаться SQL забавы ради. А в треде-то - НИХУЯ.
Реквестирую. Или сам пойду составлять из того, что знаю, и искать что-то новое.
>>1362851 SQL это как бэ уже для продвинутых чуваков, кто круды писать начинает, обычно к этому времени люди умеют гуглить и самостоятельно искать инфу. За все время что я тут сижу упоминали 2 книжки и онлайн ресурсы про которые я уже знал.
>>1362853 >обычно к этому времени люди умеют гуглить Гуглить не проблема, проблема в том, что не хочется тратить время на заведомо плохие варианты.
Хочется >концентрированной годноты а не наворачивать условный %сайт-книга-нейм% и спустя неокторое время найти %другой_сайт_книга_нейм% с более полной и полезной инфой.
Или же вот код для создания бд для примеров из книги [Clare_Churcher]_Beginning_SQL_Queries содержит ошибки в синтаксисе и местами кривые данные (лишние пробелы), а пулреквесты с багфиксами висят второй год. Что намекает на то, как автор относится к своей работе. И так далее, и так далее.
>>1362859 >что не хочется тратить время на заведомо плохие варианты Там же повторение мать ученья! Ну про бежал ты по плохому как ты думаешь варианту, а после опять с нуля по другому. Так и закрепишь свои знания. А потом уже можно вдумчиво читать книгу на 1000 страниц. Я прочекал https://www.w3schools.com/sql/default.asp Дальше буду https://sqlzoo.net/ Притом я круды пишу уже во всю с джоинами и до книг ещё не дошёл
>>1362869 >Там же повторение мать ученья! Ну про бежал ты по плохому как ты думаешь варианту, а после опять с нуля по другому. Так и закрепишь свои знания.
Внезапный вопрос - как в SQLite посмотреть подробности об автоиндексах? Хочу 100% знать, на какие поля создаются автоиндексы. Информация об юзер-индексах элементарно достается из sqlite_master, но с автоиндексами так не получается.
>>1312894 (OP) Есть две таблицы tabl1: id и названия организаций, всего 100 организаций
tabl2: непосредственно данные по организациям типа id;year;sales;manager. Тут на одну организацию по несколько строк, например, в году 2016,2017,2018.
Данные есть не по всем организациям, поэтому число уникальных id в tabl2 меньше числа id, например, всего 50.
Хочу сделать sum(tabl2.sales) и JOIN с tabl1, чтобы было видно, по каким организациям есть данные по сумме, а по каким нет. Т.е. будут делать OUTER.
SELECT tabl1.id, tabl1.id, SUM(tabl2.sales) as 'sales' FROM tabl1 LEFT OUTER JOIN tabl2 ON tabl1.id=tabl2.id GROUP BY tabl2.id
Но мне выдаётся не 100 строк, а 51: 50 строк заполненных и за оставшихся организаций,по которым нет данных в tabl2, т.е. их id нет в tabl2.id, выдаётся только одна (соответственно, с пустым полем 'sales')
Это из-за того, что в скрипте GROUP BY (tabl2.id) и ему нечего группировать по тем id, которых нет в tabl2 ?
Если так, что можно ли вообще сделать такое - совмещать первую и вторую таблицу так, чтобы в первой была группировка по id, а из второй включались все id, даже если каких-то из них нет в первой ?
>>1363505 Т1- общий список компаний. T2 - данные по компаниям, на каждой строке по такому-то году. По каким-то годам есть, по каким-то нет. Каких-то компаний из T1 в T2 вообще нет. Т.е. id в T2 неуникальны (а уникальных меньше, чем в T1), поэтому там нужна сумма T2.sales с группировкой по id.
> сджойни Т2 на Т1, наоборот т.е. и группируй как тебе надо Не работает, пробовал LEFT OUTER JOIN T1 на T2 и RIGHT OUTER JOIN T2 на T1. То есть работает, но не выдаёт T1.id полностью, как мне нужно
>>1363525 Работает только SELECT DISTINCT(table1.id) .... ...OUTER JOIN вот тогда на самом деле в столбце id выдаются все 100 id из table1, с NULL там, где по таким id нет записей в table2.
По идее, нужно GROUP BY применять к результирующей таблице, но скрипт как-то по другому работает
>>1363614 В справочнике tabl1 все присутстсуют (есть все id, например, их 100 штук)
В таблице данных tabl2 не все компании присутствуют вообще (например, уникальных id всего 50), не все компании могут присутствовать по какому-то конкретному году. Например, по 2017 их всего 30.
Спросил в руби-треде, но тут возможно больше экспертизы в вопросе.
Короче, подскажите, как принято моделировать заказы в интернет-магазинах? Я запутался в сущностях. 1. Cart (aka Basket) vs Order. Это отдельные сущности или одно и то же. Потому что корзина по сути это те же самые заказы. И смотрел библиотеку одну, там тоже корзина это просто заказ в статусе "cart". Хотя с другой стороны это вроде не одно и то же, и корзины могут быть брошены и анонимные, негоже им быть вместе с заказами. 2. Invoice. Не могу понять ни бухгалтерский ни технический смысл этой сущности. Это факт оплаты? 3. Payment, Checkout. Кажется это то же самое что Invoice?
В библиотеке (движок для ИМ на рельсах) я нашел только две сущности - Order (корзина + заказы) и Payment. Но поскольку у меня не было опыта работы с этой предметной областью, боюсь либо недомоделировать либо нагородить лишнего.
>>1364580 >А Cart/Basket это набор потенциальных Order, которые еще не приняты к исполнению. Я не понял что ты предлагаешь, отедельную сущность или одну и ту же? Если отдельную, то объясни свой выбор.
>>1364521 cart - то что покупашка еще собирается купить, order - то что покупашка уже оформляет. invoice - я так понимаю платежный документ или выставленный счет к оплате. payment - сам платеж, факт оплаты, checkout - заказ, который ожидает оплаты
Доброй ночи, анон. Прошу помочь определить оптимальный способ решения задачи. (oracle db) Есть таблица t с атрибутами n1..n10 и внешним ключом k, k - не уникальный. Есть процедура, которая сначала удаляет из t все записи с определенным k, а затем итерационно обрабатывает некие данные и результат записывает в t с тем же значением k. После наполнения таблицы t необходимо по созданным записям построить отчет. Вот тут возникает вопрос, как лучше поступить: держать созданные записи в памяти (pl/sql таблица) или же выполнить select из t по ключу k. Commit в процедуре выполняется после построения отчета. При этом существует вероятность, что процедура может быть запущена одновременно под другой сессией со всеми вытекающими (фантомное чтение и пропажа апдейта).
>>1365055 Да вы издеваетесь надо мной, посоны? Что ты мне объясняешь, как менеджер блондинке. Я же пришел спросить как сущности проектировать, а не что эта иконка обозначет.
>>1365066 А что вообще за такой страшный процесс? В таблице лежат строки с ссылками на другую таблицу, но конкретно какие-то обновить нельзя, потому нужно прям все удалить, а потом вставить заново - т.е. это уже другой набор данных совсем? Нельзя обойтись меньшей кровью и просто обновить существующие записи?
>>1365143 По сути таблица t - состояние неких объектовв, каждая строка таблицы - это какое-то свойство конкретного объекта. Свойства одного объекта объединены ключом k. Т.е. запуская операцию мы получаем состояния объектов на момент запуска (в идеале так хотелось бы). И после получения состояния всех объектов рисуем по этой таблице отчет.
>>1365023 >отедельную сущность или одну и ту же? Если отдельную, то объясни свой выбор. Либо флаг/статус в Order, (товар только в корзине или уже в обработке), либо отдельная сущность для Order, которые только в корзине.
>>1365729 Так и говори - горизонтальная таблица. Ещё небось внешний ключ+идентификатора свойства можно выделить как первичный ключ, а рядом несколько полей для каждого возможного типа данных этого свойств? Ну так почему нельзя обновить каждый объект без удаления его из таблицы?
во вселенной вообще существует адекватная причина реализовывать бизнес-логику через процедуры? почему людям так нравится пердолить самих себя в жопу, а потом еще недоумевать, что внедрение новых фич поверх текущей логики занимает тысячелетия?
>>1365931 В хранимках, представляющих из себя простое апи, и отрабатывающих за константное время, ничего плохого нет. Ну типа процедура обновления объекта, которая проверяет все поля, и кроме обновления создаёт запись в исторической таблице.
А вот писать на них кучу логики, это зло как с точки зрения превращения кода в трудноподдерживаемую лапшу, так и производительности и масштабируемости.
>>1365867 Если коротко - тому что это легаси-говно с тысячами строк кода, который делает инсерты в эту таблицу и рефакторингом заниматься нет ни времени, ни желания. Есть неизменное условие - таблица очищается по ключу k, затем магическим образом инсертятся строчки. Лучшее что могу сделать отлавливать то, что попадает в таблицу.
>>1365977 По-хорошему, ты должен проявить инициативу и выбить время на рефакторинг этого говна.
Но раз тебе лень, то что я могу сказать.
Тогда к твоему вопросу. Коммит только один и только после построения отчёта? Либо забей(в течение одного pl/sql блока, запущенного до коммита самой первой обработки все увидят одинаковые данные, хотя на диске уже будут лежать другие), либо раздели логику на два этапа - один раз обновляешь этим ебнутым способом записи, коммитишь, а потом сколько хочешь раз строишь под этим записям отчёт. Можно даже сделать проверку - если такая-то запись а логе об обновлении есть, то запустить процедуру формирования отчета сразу, если нет - сначала обновить нужное.
>>1365940 >Ну типа процедура обновления объекта, которая проверяет все поля, и кроме обновления создаёт запись в исторической таблице ну это уже логика. и вопрос ее расширения - это вопрос времени
>>1366018 >проявить инициативу и выбить время на рефакторинг этого говна. Это не реально сделать по причине сроков, моя лень тут не причем, будь моя воля и месяц рабочего времени переписал бы эту хуету. Чтобы было понятнее - вот пример строк из таблицы. У нас есть некоторый объект который состоит из свойств-объектов. Можно представить в виде дерева на первой пикче, в таблицу же пишутся свойства вложенных объектов, которые не удовлетворяют определенным правилам, точнее пишется, что именно не так с ним (логиурется ошибка) Одна из подпроцедур как раз и проверяет валидность объектов и делает вставку в t, если какое-то свойство невалидно.
Так вот на момент запуска основной процедуры не известно как состояние объектов, так и сколько всего вложенных объектов каждого класса и значения их свойств. Может получится так, что и объекта суперговно уже нет. Видимо поэтому сделали удаление, а потом заполнение по новой.
И вот после того как новый лог зафиксируется (читай отработает процедурка логирования) - нужно получить отчет.
>>1312894 (OP) Есть кто много работает с PostgreSQL и 1С? сейчас переводим файловую базу на эту СУБД и вроде норм работает, но вот в номенклатуре ставишь цены и начинает по 3 секунды думать, а в файловом варианте все мгновенно считает Тест Гилева показывает 32 балла Почему притормаживает не можем понять 1С-ник говорит, что доработки не нужны при переходе с файловой на СУБД, а я думаю, что при переходе оптимизация в любом случае нужна, также мы используем SSD и конфиг PG вроде на максимум выкручен Может быть надо еще быстрее диски? PCI-E например под запись в 1000МБ и чтение в 1500МБ? СУБД пробуем и на винде и на линуксе - на линуксе 32 балла в Гилевском, на винде 22 балла Может есть какие-то версии PG, линукса и 1С, которые совместно работают отлично? Пробовал PG 9.2, 9.6, 11.1 на CentOS6, UbuntuServer14.04 и PG 9.6, 10.5 на Win2013R2 1С 8.3 КА брал готовые сборки 9.2, 9.6 для линукса с сайта официального сайта 1С и PostgrePro там тоже для 1С сборки для винды 9.6 и 10.5 с официального сайта 1С то есть пробовал разные миксы для 1С, кроме 11.1 она сама по себе просто самая последняя. Может есть какие-то отличные проверенные версии? 1С 8.3.13.1690, база 25Гб, хотя сейчас на файловой работают на старой версии 8.3.6 сервер с 24 ЦПУ, 25Г ОЗУ, ССД с 200МБ запись\400МБ чтение для баз и системы а конфиг большой основные параметры для_винды: users=100 ssl=off shared_buffers = 2GB temp_buffers = 16MB\t work_mem = 16MB\t\t maintenance_work_mem = 256MB bgwriter_delay = 100ms\t\t\t bgwriter_lru_maxpages = 1000\t\t bgwriter_lru_multiplier = 4.0 max_worker_processes = 24\t\t max_parallel_workers_per_gather = 12 wal_level = minimal\t\t\t fsync = off\t\t\t\t synchronous_commit = off\t\t wal_sync_method = fsync\t wal_buffers = 16MB checkpoint_timeout = 60min\t\t max_wal_size = 3GB min_wal_size = 1GB checkpoint_completion_target = 0.8 archive_mode = off enable_mergejoin = off enable_nestloop = off random_page_cost = 1.1 effective_cache_size = 18GB default_statistics_target = 500 join_collapse_limit = 1\t autovacuum = on\t\t\t autovacuum_max_workers = 20\t\t\t\t\t\t autovacuum_naptime = 20s\t\t autovacuum_vacuum_scale_factor = 0.005 autovacuum_analyze_scale_factor = 0.02 escape_string_warning = off standard_conforming_strings = off для_линукса: users=100 ssl=off shared_buffers = 5GB temp_buffers = 16MB\t work_mem = 16MB\t\t maintenance_work_mem = 1500MB bgwriter_delay = 100ms\t\t\t bgwriter_lru_maxpages = 1000\t\t bgwriter_lru_multiplier = 4.0 max_worker_processes = 24\t\t max_parallel_workers_per_gather = 12 wal_level = minimal\t\t\t fsync = off\t\t\t\t synchronous_commit = off\t\t wal_sync_method = fsync\t wal_buffers = 16MB checkpoint_timeout = 60min\t\t max_wal_size = 4GB min_wal_size = 2GB checkpoint_completion_target = 0.9 archive_mode = off enable_mergejoin = off enable_nestloop = off random_page_cost = 1.1 effective_io_concurrency = 200 effective_cache_size = 18GB default_statistics_target = 100 join_collapse_limit = 1\t autovacuum = on\t\t\t autovacuum_max_workers = 20\t\t\t\t\t\t autovacuum_naptime = 20s\t\t autovacuum_vacuum_scale_factor = 0.005 autovacuum_analyze_scale_factor = 0.02 escape_string_warning = off standard_conforming_strings = off
На компьютере была установлена pSQL 9й версии, позже накатывал 10ю. И всё вроде хорошо, веду базы данных на 9ке и 10ке отдельно, всё как у людей.
Однако 9ка вроде как и не нужна уже, все проекты на ней давно сданы и едва ли кого интересуют. И вот залез я как-то в службы шиндоуза и обнаружил что у меня там оба pSQL-сервера вписаны на автозапуск. Я подумал что 9ка больше не нужна в общем-то и отключил.
И вот обнаружилось что вместе с тем pgAdmin с консолью перестали видеть те самые базы данных и даже логины проебались. Однако при этом компьютер также видит что у меня тут джва сервера установлено.
Подрубил обратно службу с процессом 9й версии - всё вернулось.
Кто-нибудь может хотя бы примерно объяснить за счёт чего оно может происходить? Самое что непонятное - почему 10й сервер оказывается привязанным к 9ке, но при этом спокойно пользует свои специфические фичи.
>>1367378 >почему не удалить 9 совсем? Тоже думал, но иногда таки попадаются случаи когда заказчику нужна именно 9я версия. Опять же, теперь есть повод беспокоиться что со сносом 9ки у меня могут и данные проебаться. >порты поменять надо попробовать в конфиге ПГ Да вроде с этим проблем нет же. На мой взгляд аномальным является то что 10й сервер каким-то образом работает из-под исполняющего файла 9ки и де факто в 9ке же и находится.
Существует ли какой-нибудь алгоритм выбора мощностей сервера, на котором БД крутится? Там ведь куча показателей, начиная размером данных и заканчивая кол-вом параллельных запросов...
Если с СУБД и структурой данных всё ясно, то сервер упирается в: - проц - ОЗУ - HDD\SSD - ширина канала - ожидаемый пинг для клиента - возможности защиты от дудосов, внезапных падений железа, и прочего
По всему этому выводишь минимумы-оптимумы-максимумы и сравниваешь с какими-нибудь рыночными планами. Итоговый выбор предлагаешь делать по наиболее узкому участку. К примеру, дисковое пространство всегда можно расширить.
Ставлю на win 10 оракл базу, чтобы на ней учиться. Скачал с сайта oracle sql developer Windows 64-bit with JDK 8 Included Скачал OracleXE184_Win64.zip Установил базу с админ правами. Запускаю sql developer и жму, как во всех гайдах, new connection. Заполняю все как в гайдах, ввожу свой пароль, что указал при регистрации. Вылазит эта херня: Status : Failure -Test failed: Ошибка ввода/вывода: The Network Adapter could not establish the connection
Что я не так делаю? Как лечить? Почему даже поставить не выходит блять? Ебусь весь вечер без какого либо результата. Качал обычную базу, но она сука даже не устанавилась, писала про failed to set acl's for specified user oracle, поэтому и ставил XE версию. Как мне поставить этот гребанный sql с табличками к себе на комп?
>>1368663 Как ты ставил сервер? Листенер настроил? А ещё можешь забить на sql developer, поставь себе ещё клиент оракла и подключайся через pl/sql developer.
Ребята, прошу, хелп! Как написать на Perl'e, чтобы инфу в базе данных можно было менять прямо через сайт, который прицеплен к самой этой базе данных? Извиняюсь за некорректную формулировку мэйби
гайд как гуглить: если не знаешь инглиша, то пиши сюда по-русски, что хочешь\требуется сделать https://translate.google.ru/ копируй результат и вбивай в гугол
>>1312894 (OP) А кто тут вообще сидит? Аналитики? >>1312894 (OP) Сколько вы зарабатываете? Кем работаете? Я сейчас занимаюсь поддержкой и доработкой одной ИС на pl/sql и созданием всяких отчётов в BI. Получаю 70к, но я еще совсем студент 4 курса, поэтому мне норм, естественно ДС.
Работаю сейчас в банке. Разрабатываю, сопровождаю внутреннее хранилище на оракле. Пилю витрины. Переливаю данные из схемы в схему. Вывожу красивые отчеты в BI. Пилю триггеры/функции/процедуры. Проектирую новые таблы. Веду мониторинг всякой бизнес параши. В общем, мальчик SQL на подхвате. Пердолюсь в PL/SQL.
Хочу перекатиться в разрабы БД Oracle. Пару раз ходил на собесы, выделил для себя направления которые еще надо подтянуть.
1) redo undo пространства 2) принципы построения хранилищ (dv, 3nf) 3) AWR 4) xml в оракле 5) skip partition 6) in out nocopy - повторить 7) гистограмма статистики (зачем собирать) 8) dwh vs olap 9) параллелизм в oracle 10) индексы составные (критерий порядка) 11) раздел temp 12) HASH JOIN, MERGE JOIN, NESTED LOOPS как ведут себя с индексами 13) Блокировки: как пользоваться где смотреть 14) Области памяти в Oracle
>>1370893 Ты в курсе, что ты и так разработчик oracle? Только аналитической системы. Для разработки OLTP тебе нужно все это + стандартные требования для программиста, а-ля алгоритмы и структуры данных.
>>1370903 Так получилось, что я "разработчик" в отделе, который разработкой не занимается. Все приколюхи которые я тут пишу, они для внутренних нужд или для смежных отделов.
>>1370917 Брат, это хранилище, как ты хотел. Вся разработка - возьми и по кальке добавь заполнение новой таблицы, отличаются только названия и селекты. И это тоже считается разработкой. Дело в том, что здесь ты должен уметь быстро оперировать огромными наборами данных, понимать, как работает оракл и быть супервнимательным, так как однообразность притупляет эту самую внимательность. И это тоже ценится, бизнес хочет хранить много данных и быстро доставать что-то конкретное, не каждый может сегодня в завтрашний день.
А так просто покажи на собеседовании, что у тебя есть фантазия и ты умеешь придумывать быстро элегантные решения для нового функционала - вот тебе и то, что нужно для OLTP. Плюс умение разбираться в чужом коде, это тоже важный момент - чтобы понять существующий движок быстро.
Расскажите, пожалуйста, немного больше о собеседованиях на девелопера. Что меня может там ожидать? Нужно будет процедуры/функции/триггеры на бумаге писать? Оптимизация/параллельность/партиции/хинты/ мат. представления в оракле, что еще может быть, кроме того, что тут >>1370893 написано?
>>1370968 Разработчик хранилища - как и ты. >>1370965 Оптимизация, хинты, аналитические функции, коллекции, курсоры, параллельный доступ(сюда можно ещё принципы acid отнести), понимание того, что ты работаешь не с ежедневными выгрузками, а в системе "реального времени" - не в смысле как в самолёте, а что постоянно бегают транзакции и нужно учитывать нагрузки, которые будет испытывать твоя разработка. Главное отличие - помимо точности обработки тебе ещё нужна эффективность. В хранилище это тоже требуется, но там разница в 5 секунд не сыграет роли - вся процедура бегает 5 минут, а следующий набор данных придет только завтра ночью - в транзакционной же системе тебе нужно сделать все быстро, так как во время обработки могут прийти новые данные, и чем меньше их будет - тем быстрее ты их обработаешь и не замедлишь работу системы.
САП ПРОГРАМИСТЫ ПОЯВИЛАС ПОТРЕБНОСТЬ ВОТ В ТАКОЙ ХУЕВЕН, ВОПРОС СМОГУ ЛИ САМ НАПИСАТЬ? ЕСЛИ ДА, ТО КУДА КОПАТЬ?
Сайт для учета базы клиентов c Блэкджеком Цена до: 1 000 Р Активный Авторизация на сайте, пользователи и админ. 1 создал карточку клиента, поля с данными: телефон , название итд, И главное борьба С дублями 2 карточка с событиями, привязанная к карточке клиента (позвонил , пообщались, оставил заказ), создаются новые, старые остаются, можно проследить ход событий. 3 сортировка по полям данным 4 маркеры пользователя на карточке клиента,чтобы было видно, какой пользователь ведет клиента это предварительно
Собсно, есть вопрос по поводу конструкции БД. Есть определённая таблица, в которой содержится много людей разных типов, созданных наследованием, суперкласс не используется. Отличается только их тип, но всегда есть набор и отношение мэнитомэни, то есть в людях тоже есть ссылки на эту таблицу. Собсно, вопрос, получается очень много may-to-many отношений (12) вместо 4. Как лучше сделать, оставить так, таблицу для каждого подтипа, или одну общую для типа, просто создав поле? Столько ManyToMany вообще норм и что можно почитать про это? Пик стронгли релейтед.
>>1312894 (OP) Есть WAMP 2.5. Есть Mysql база в интернете, которую я хочу скопировать на локальный сервер. Зберёг усю базу в большой файл SQL. Но при импорте на локальный сервер одна таблицы на сотни тысяч строк не загружается вообще, а в логе появляются сообщения MySQL Server gone away 2006.
Почитал про set global max_allowed_packet=64000000; set global net_buffer_length=1000000; set global innodb_lock_wait_timeout=500;
Но когда я задаю их в консоли (WAMP-Mysql console), они не сохраняются.
mysql> set global max_allowed_packet=64000000; Query OK, 0 rows affected (0.00 sec) mysql> show variables like "%max_allowed_packet%"; +--------------------------+------------+ | Variable_name | Value | +--------------------------+------------+ | max_allowed_packet | 4194304 | | slave_max_allowed_packet | 1073741824 | +--------------------------+------------+ 2 rows in set (0.00 sec)
Прописал также в my.ini max_allowed_packet = 64000000 перезапустил все сервисы и отдельно mysqld restart но нифига, по-прежнему max_allowed_packet=4194304
Працует тильки вставка set global ... непосредственно в початку загружаемого файла SQL с моей базой с большой таблицей.
Чому так ? Чому Mysql не воспринимает прописанное в my.ini ? Где потрибно прописывать переменные ?
>>1371323 Бля, конечно, одну общую с атрибутом user type id. Что тут спрашивать, вообще. Как ты будешь запросы писать ко всем пользователям? Юнион олл свои миллиард таблиц?
>>1370917 >В OLTP как раз и хочу вкатиться. нахуй олтп. Ораклиный олтп в отсосе сейчас. Все пытаются делать в орм. В плане бд разработчика хранилище это еще та тема, где можно рулить. К тому же оракул в хоронилищах отсасывает последние десять лет специализированным бд (терадата, гринплам) и носкль говну типа хадупа.
Вообще в Данных сейчас самая нормальная тема, это data engineer на опен сурс стеке hadoop, presto, kafka и тп говно. Это сейчас востребованная тема и больше платят. У оракула всё наоброт. Надо в неё вкатываться.
Или если модолой пиздюк может не поздно перекатиться в general purpose языки типа джавы. Разработчик оракл в 2019 это как то это. Если на текущем раб месте надо, учи конечно, но подумай. Работаю в хоронилищах 10 лет.
Удивительно, что во всём pr по запросу hadoop находятся три поста. В БД обсуждают какое-то аутдейтед говно из девяностых.
>>1372790 ну так как join b on 1 = 1 это то же самое, что cross join b то скажу да. а так - джоин - это поиск пересечения множеств, а select from a, b - это декартово произведение а еще оптимизаторы запросов написаны людьми умнее, чем написатели подобных запросов, и они могут в переделку на джоин
>>1372882 А ничего, что cross join - то же самое, что две таблицы через запятую? Ничего, что ты при соединении таблиц через запятую можешь указывать условия соединения? Нет, это разные вещи, конечно же. И оптимизатор переделывает запятую в джойн не потому что видит ее как джойн, а потому что это запятая, а оптимизатор написан очень умными людьми. Такими умными как ты, наверное.
>>1372985 >А ничего, что cross join - то же самое, что две таблицы через запятую? >>1372881 >ну так как >join b on 1 = 1 >это то же самое, что >cross join b
Аноны, помогите с вопросом нубу: есть у меня таблица ивентов посещения страниц - юзерайди, времядата, страница, сессия, вот как бы отобрать сессии, в которых юзер посетил три страницы в определенном порядке? Помимо них в сессии могут быть какие угодно страницы в любых местах. Пока что есть желание составить какой-то такой запрос где GROUP BY сессия HAVING MIN(время посещения страницы1) < MAX(время посещения страницы3) и что-то в этом роде, но MIN же не может отбирать по значению другого столбца.
>>1312894 (OP) Есть такой селект: select shit from anus into wc where available = true and want_srat' = true. if wc == space { select shit from anus into wc where available = true. } Как это записать в одном селекте без необходимости переписывать весь запрос с одним измененным условием?
>>1373194 select nvl(decode(want_srat, true, shit), shit) from anus where available = true
А смысл вообще запроса можешь объяснить? Тебе нужно выбрать значение из строк, где оба параметра - истина, но если такого нет, то выбрать такие, где только один параметр - истина?
>>1373219 Ну а вообще даже так select id, max(nvl(decode(...))) from // group by id
Чтобы для каждой записи взять только одну запись. Придумай только, как сделать у записи с обоими флагами так, чтобы ее отобрал max(или любая другая агрегатная функция).
Какие есть хорошие ресурсы (сайты, книги, видео, шо угодно) для освоения SQL? В ВУЗе было в своё время и сдавал всё на отлично, но там как-то слабоватый совсем уровень был: базовые джойны, агрегатные функции и прочее барахло. После тех времён заглянул в нынешние PostgreSQL и Redshift, а там вообще другой сказочный мир из оконных функций, массивов каких-то дивных и прочих приблуд. В целом по гуглу и документации всё понятно, когда сталкиваешься, но сталкиваться задачи нужны какие-то.
Неужто все по хардкору документацию сплошняком читают и в фиддле сами себе примеры для отработки сочиняют?
Господа, нужна помощь. Mysql, есть таблица справочник вида id name 1\tхуй 2\tпизда 3\tджигурда 4\tзалупа 5\tжопа
И динамическая таблица вида n naims QWER9090 1,3,5 JOPA1337 2,4 GOVN2281 1,5
Нужно заселектить так чтобы в naims вместе цифр по id из справочника выдавало список naim типа: n naims QWER9090 хуй,джигурда,жопа
select dyn.n, group_concat(spr.name) as names from dyn left join spr on spr.id in (dyn.names) выдает только одно значение из справочника. find in set в каждую строку полностью весь справочник запихивает. Что я делаю не так?
>>1374126 >QWER9090 1,3,5 >1,3,5 Это id из таблицы "справочник"? Так и записаны через запятую в поле "динамической" таблицы? Схема мудацкая в таком случае.
По-хорошему должно быть так в динамической таблице: QWER9090 1 QWER9090 3 QWER9090 5 ...
Тогда можно было бы обойтись без вот этих плясок :
SELECT t.name, group_concat(spr.name) names FROM spr spr JOIN ( SELECT SUBSTRING_INDEX(SUBSTRING_INDEX(dyn.ids, ',', spr.id), ',', -1) id, dyn.name FROM spr JOIN dyn ON CHAR_LENGTH(dyn.ids) - CHAR_LENGTH(REPLACE(dyn.ids, ',', '')) >= spr.id - 1 ) t ON spr.id = t.id GROUP BY t.name
>>1312894 (OP) Как думать в SQL и писать эффективные запросы? 1. Нужно сделать, условно, 2 джоина. Есть вариант предварительно отфильтровать одну таблицу (запихнуть результат в CTE) и уже сделать джоин первой таблицы с CTE. Либо же сразу писать джоин в одном месте и там по ходу фильтровать 2. Есть к примеру 4 таблицы: A,B,C,D. Отфильтровал как-то A, нужно сджоинить оставшиеся три. Забрать нужно не все данные, а только часть. offset и fetch next можно сделать на таблицу А, а потом на результат сделать джоин оставшихся таблиц. Либо же сразу на А делать джоины и в конце делать offset и fetch next.
>>1374635 1. понял, спасибо 2. Вопрос немного не в этом. Меня offset и fetch next вполне устраивают. Либо я не правильно ответ понял, либо вопрос не так поставил. Вопрос примерно такой же как и первый: делать ли джоины до пагинации, либо после нее. Я сейчас делаю так: беру таблицу А, делаю по ней пагинацию, джойню остальную инфу, типо зачем делать джоины на строки, которые потом не попадут в результат. Но возможно оптимизатор и это способен понять и можно сразу писать джоины и в конце делать пагинацию.
>>1374654 Я к тому, что ты можешь изначально первую таблицу обрезать так, чтобы не было ничего лишнего. Т.е. если в первом вопросе оптимизатор сам решит, как лучше соединять, то в этой ситуации, если ты явно скажешь, что хочешь обрезать выборку из таблицы А, он никуда не денется - выберет из нее нужные данные и будет соединять их. Смотри план, опять же. Плюс тут ещё нужно учитывать затраты: зафетчить строку из А, пустить для нее запрос и так для какого-то количества строк - это ж сколько раз ты будешь читать остальные таблицы? То есть нужно оценить, что выгоднее - пустить для десятка строк один и тот же запрос десять раз или все же за один запрос все соединить.
Почему я сказал по rownum. Пускай у тебя есть селект с каким-то условием из подзапроса. И в общем случае это условие можно запихнуть в подзарос - смысл не поменяется. Да и сам оптимизатор это, скорее всего, сделает за тебя. Но если в оракле поставить условие на rownum - виртуальный столбец - смысл от него будет совершенно разный в подзапросе и в селекте над ним. То есть ты можешь с помощью его аналога в своем БД обрезать выборку каким-то хитрым образом и не джойнить ничего лишнего.
Посоны, а сейчас реально в SQL на работу вкатиться? Какой там сейчас стэк? Или просто сикуль сейчас не нужен и я еще долежн быть как минимум жаба мидлом? Вакансии в моих ебенях намекают именно на это.
>>1374682 разраб как DBA востребован не во многих компаниях, с большой вероятностью в аутсорсе онли. ну, и чем больше охват базочек, тем ты лучше. популярный реляционный набор энтерпрайза плюс хоть какое-то представление о NoSQL, или самодостаточные знания в оракле - это все дба, которых я встречал
>>1374786 >сорсе онли. ну, и чем больше охват базочек, тем ты лучше. популярный реляционный набор энтерпрайза плюс хоть какое-то представление о NoSQL, или самодостаточные знания в оракле - это все дба, которых я встречал
>>1374802 а что ORM? его присутствие в коде проекта не означает, что база сама себя заадминит. плюс, орм орм-у рознь: если какой-нибудь EntityFramework разве что ускорить время выхода приложения в live сможет (и рано или поздно от него придется отказаться), то Dapper или нечто вроде просто тебе дает возможность скастить результат в нужный тип без явного приведения полей (писать SQL тебе нужно ровно так же, если бы юзались хранимые процедуры, только в другом месте)
>>1374808 затем, что это все персоманс-кост на разбор выражения и приведение его в SQL, а также ультранеоптимальный (в большинстве случаев) запрос. не знаю насчет NHiber, но EF не поддерживает практически никаких хинтов и оконных функций (вагную, если бы первые умели, вторые моментально выкатили свой вариант), про MERGE/PIVOT/WITH я даже не заикаюсь. поэтому для 10RPS CRUD-запросов к таблицам с джойнами ORM тебе будет хватать с избытком, даже если ты всю базу при каждом запросе будешь в память грузить. но анатилику ты никакую на ORM не построишь, а с ростом интенсивности взаимодействия с базочкой тебе придется искать выход. и очень сильно повезет, если бекенд не окажется гвоздями прибит к [конкретной] ORM
>>1374831 >а с ростом интенсивности взаимодействия с базочкой тебе придется искать выход. и очень сильно повезет, если бекенд не окажется гвоздями прибит к [конкретной] ORM
>>1374837 >>CONFIGURED PRICE: $17,654.00 >или сказать кастомеру, что если тебя уволить, можно сэкономить без малого 20к
Нет, потому что байтоебу-запроснику придется протратить несколько лет времени вместо нескольких месяцев, после чегг и получить неподдерживаемый говнокод на голом JDBC, который поддерживать раз за разом встанет дороже.
И все это вместе, разумеется, будет дороже (по зарплате, по простоям, по сопровождению) и 17к, которое стоит это шасси, и 80к, которое уже напихано топовыми восьмитерабайтными NVMe SSD.
>>1374843 наличие или отсутствие ORM, хранимопроцедурного говнослоя и прочих вещей не дает никому никаких гарантий. наскакивать на ORM очень легко, а соскакивать тяжелее, особенно, если это YOBA-фреймворки. кому-то, может, и не приется соскакивать никогда, кто-то просто добавит стейтфул инстансов в Service Fabric/Kubernetes и будет счастлив
Как запилить нечеткий поиск с ограничениями? Нужно найти (в sql) все записи, содержащие "строка" или отличающиеся от нее на <=N символов. Например, если N=4, при поиске "строка" должны находиться "строки", "стрАка" (1 <= 4), "срака" (2 <= 4) и "строковой" (4 <= 4), но не должны находиться, например, "строка-массив" (7 > 4) или "строка12345" (5 > 4). У LIKE есть процент, означающий 0, 1 или более символов - это все подстроки в строке, есть _ - это 1 символ, а как мою хуйню запилить, я даже хз.
>>1375099 эластика какого-нибудь если ты умудришься завернуть подобную логику в процедуру, это будет ебала с регулярками, циклами и подобной тяжеловесной залупой. ну по эффективности выйдет не хуже, чем миллиард запросов
>>1375105 Еба...это ради такой хуйни VPS с явапарашей поднимать. Еба. А каких-то промежуточных вариантов между LIKE `строка` и LIKE `%строка%` нет вовсе? Без шуток про LIKE `%строка` и LIKE `строка%` плз.
>>1312894 (OP) Аноны, подскажите какой-то литературы в которой очень сжато будет рассказано самое важное, чтобы я за дня 3 упорного чтения управился могу читать примерно 200 страниц в день, потом плохо воспринимаю и работу с SQL. Возникла необходимость прикрутить небольшую БД и залить ее на сервер, в языке средства для работы с СУБД есть, но в голове нет нихуя по этой теме
>>1375107 ну не поднимай тебе нужен поиск схожести, а ты пытаешься лобовой полнотекстовый поиск заюзать. ну, попробуй с лайками напиши, расскажешь, что получилось
/v/tard репортинг. Сидел с игровой импотенцией, унывал, скроллил джвач и наткнулся на ваш тред и, конкретно на sql-ex. Посоны, это - охуенно, давненько так не залипал.
>>1375091 Если хочешь на Sql такое написать, можно заюзать динамик скл: собирай запрос по такой логике: 1. На вход прилетает строка и число N, например, "кака", N=3 2. Далее нужно использовать логику для подбора бинома Ньютона(гугли): выбор M из N, иными словами, обойти все варианты, подставляя вместо них "_" в свое like выражение,для нашего примера это будут: where word like '_ака' or word like 'к_ка' or word like 'ка_а' or word like 'как_' or word like '__ка' or word like '_а_а' or word like '_ак_' or word like 'к__а' or word like 'к_к_' or word like 'ка__' or word like '___а' or word like '_а__' or word like '__к_' or word like 'к___'
Соотвтветственно, тебе нужно написать алгоритм, который будет такой sql собирать динамически, собственно, придется разбирать слово по буквам и использовать все возможные перестановки.
Честно говоря, кажется, поиск будет работать медленно...
Есть еще хранилища данных, BI, где зачастую не используются никакие языки, кроме SQL, потому что не нужны. Но, как показывает практика, разработчики приложений про такие слова слышали разве что мельком.
Помимо всего прочего, просто интересно, как будет выглядеть написанный, например, на >JPA/Hibernate вот такой запрос >update t_data set update_date = cast('20190101' as date) where is_valuable = 1 , имея в виду, что все необходимые классы у тебя уже имеются.
ОРМ - это удобно, никто и не спорит, но некоторые вещи он сейчас решает топорно, помимо всего прочего любопытно узнать, что ты будешь делать, не зная SQL и, соответственно, не умея читать план запроса, если твое выражение, написанное при помощи ОРМ вдруг начнет выполняться медленно. Такие вещи, как профилирование запросов, для тебя оказывваются тайной за семью замками, значит, в более-менее крупных проектах, где данных чуть боьше, чем 100000 строчек, ты не работал.
Свитера, посоветуйте книгу или курс какой, где про механизмы и кишки БД рассказано, что систематизировать свои знания. Допустим, знаю, что индекс-это чаще всего RB или AVL-дерево. Хочется больше знать про такие нюансы, транзакции, репликации, алгоритмы в них и т.д..
•Опыт работы системным администратором не менее 3-х лет. •Уверенные знания всей линейки ОС Windows, базовые знания Linux. •Опыт администрирования активного сетевого оборудования, опыт построения VPN сетей 2/3 уровня. •Опыт администрирования телефонных станций линейки PANASONIC, базовые знания работы ASTERISK и SIP телефонии. •Опыт администрирования систем IP видеонаблюдения, в том числе Облачных. •Опыт администрирования виртуальных машин на базе VMWare и HYPER-V. •Опыт администрирование серверов 1С в том числе мониторинг производительности, схемы резервного копирования. •Уверенные знания СУБД MS SQL\Postgres\Firebird и языка запросов SQL. •Опыт применения в работе стандарты ITIL\SLA. •Опыт работы с кассовым оборудование, POS системами. •Базовые знания WEB технологий и серверов IIS\Apache. •Базовые знания технологий защиты информации.
Почему я считаю что все связанное со свитеровязанием лютая поебень и зашквар. Где абстракции? Где композиции этих абстракций? И это блядь учебный эталонный пример. Ничего этого в свитеромирке нет и даже больше свитера просто не понимают что это и зачем нужно. Любого нормального кодера за такой копипаст ткнули бы носом в говнокод. В свитеромирке - это норма. Да что там далеко ходить - в этом итт треде один клоун реально заявляет о то что имплицитный джойн это слишком и кабы чего не вышло.
>>1377793 Ну я рад за тебя, осталось только подтянуть state of the art свитероиндустрии хотя бы до уровня пятидесятилетней давности или когда там Дейкстра и ко поясняли за пользу структурированного подхода.
>>1377793 Алсо, что будешь делать когда глав-свитеро-петух скажет что так никуда не годиться потому что БУДЕТ МЕДЛЕННА и вообще пиши как все ПО ПРОСТОМУ а то КАБЫ ЧЕГО НЕ ВЫШЛО.
>>1377793 Советую давать всем таблицам алиасы и использовать их везде в запросе. Иначе непонятно, что это за поле такое - title, из какой оно таблицы?
>>1377876 Наоборот, первичный ключ в таблице - это всегда кластерный индекс, причем уникальный. А кластерный индекс предполагает сортировку, да, по тем полям, по которым он создан.
>>1377767 Скопировать подзапрос и повесить сверху агрегат - бесценно. Написать max(count(title)) - для этого нужен мозг. А для count(title) > 2 - нужно быть сверхразумом. Но чтобы вонять без умения писать запросы мозг не нужен.
Как же хорошо, что есть оптимизатор для таких дурачков как ты.
>>1378080 > свитера просто не понимают что это и зачем нужно > бессвязный поток дриста не имеющий никакого отношения к поднятому вопросу Ну да, все сходится.
>>1378209 Угу, так же добавлю что это было бы еще пол-беды. Проблема в том что такие "примеры" очень даже встречаются irl, но только на сотни строк и каждая строка повторяется по десять раз минимум, как будто читаешь текст песни леди Гаги.
Моя тян я знаю уже смешно, да желает вкатиться в ойти попроще. В настоящий момент пытаюсь определить, что ей лучше зайдёт по лёгкости вката и условной востребованности на рынке:
1. что-то связанное с базами данных 2. QA с автотестами
Что скажет умный анон по этому поводу? Если она выучится в каледже на базы данных vs сделает тоже самое по QA, какие перспективы быстрого вката в профу?
>>1378375 go, js~ и питонопитушня проще некуда. ну, для го нужно чуть больше мозга, чем для фронтача. однако технология относительно новая, дохулиарда, готовых кодить за еду, не видно
Ты ратуешь за то, чтобы она вкатывалась в программерство, забив на базы данных и QA? Или ты имеешь в виду, чтобы она вкатывалась на QA с го, жс и питоном?
И куда ей легче будет вкатиться джуном, чтобы наверняка? Как быстро вкатится после календжа с курсами в год (два семестра)?
>>1378494 Интересено посмотреть, как ты оперируешь PK, когда он не является кластерным индексом. Можешь какой-нибудь пример привести с объяснениями, зачем так делать?
Анон, добра. У меня есть трабл - работаю с Postgresql программно через классы Qt (QSqlDatabase и QSqlQuery). Нужно сделать синхронизацию локальной бд с серверной. Думаю делать через репликацию, но не имею понятия как можно программно передавать эти инструкции - никакие другие интерфейсы кроме SQL-запросов эти классы не предоставляют. Не хотелось бы в ручную прописывать чтение всех таблиц с серверной БД и потом их запись в локальную.
>>1379280 я никак не оперирую, я сторонник того, чтобы естественный ключ был равен первичному когда-то приходила в голову мысль, где это может быть применимо, но, видимо, было не сильно убедительно даже для самого себя, чтобы подобное запоминать. в общем, если нужно построить скалярный FK на таблицу, у которой составной первичный ключ. и вообще, если дают возможность так делать, значит это кому-нибудь нужно.
Помогите, с nosql-базами почти не имел дело, а сейчас встала задача.
Есть БД, фрагмент ее быстро накалякал в draw.io, чтобы суть пояснить. Но на скрине SQL-вариант. Как оптимальней подобное перенести в mongodb? Насколько я понимаю, у школ будет массив objectId предметов, учителей и уроков, а соответствующие вторичные ключи на школы в этих трех таблицах будут удалены? В остальном то же самое? Если учесть что бизнес-логика подразумевает постоянные запросы "Преподает ли учитель в данной школе", "В какой школе преподает учитель", "Какие уроки провел данный учитель" итд, короче джойны во все стороны со всех таблиц будут использоваться.
>>1380274 ты хочешь в нереляционное хранилище напердолить реляционную модель? храни сразу граф объектов в одном документе. условно: школа { инфа, учителя: [{ инфа, предметы: [{ инфа }] }] }. возможно, придется дублировать данные в документах
Пишу сейчас программу на C++/QT и нужно как-то к этому всему мракобесию прикрутить базу данных. С ними я вообще никогда не работал, поэтому посоветуйте какой-то курс для начинающих, чтобы элементарную систему авторизации логин-пароль запилить.
Сап, двач! Допустим мне на питоне(юзая mysql connector) нужно постоянно обрабатывать новые добавленные в базу данных значения. Как можно создать тригер, который после инсерта будет звать питоний код?
В учебниках про БД постоянно пишут про 58 видов геев 6-7 различных нормальных форм, эта нудятина имеет смысл и отношение к базам данных или её можно спокойно пропускать?
>>1386523 Когда уже дойдёшь до такого уровня, что начнёшь смотреть план выполнения запросов - тебе может потребоваться какая-нибудь N'ная нормальная форма.
А пока, раз у тебя, грубо говоря, 10 тысяч строк в таблицах, на твоём уровне достаточно было бы оставить правило "не увеличивай число столбиков без крайней на то необходимости" - вот тебе и подходящая нормальная форма.
Алсо, было же у Андрея Орлова правило "не храни артикул товара в виде 12-значной строки, а храни его в виде целочисленного ключа" - вот тебе и подходящая нормальная форма.
Или старое правило "не храни номера телефонов ни с кодом города ни тем более через точку с запятой" - вот тебе и подходящая нормальная форма.
Подскажите, пожалуйста, какой-нибудь толковый и проверенный учебник по SQL на русском или английском языках.
Сам я когда-то запомнил совет читать учебник по ссылке ( http://www.sql.ru/docs/sql/u_sql/ ), но к восьмой главе у меня уже на полном серьёзе от качества перевода начинает болеть голова и создаётся впечатление, что меня поразил инсульт, по причине чего у меня пропала способность воспринимать текст.
Попутно я решаю задачи на http://www.sql-ex.ru , изредка пользуясь справкой, но по беглому её просмотру я посчитал, что она - прямое руководство по использованию языка, без каких-то теоретических сведений.
Может есть какие-то более приемлемые альтернативы?
>>1387376 Ну, судя по тому, что вопросы мне в голову не приходят, то просить нужно что-то обобщённое, что позволило бы сформировать представление о языке?
Мне он нужен в дополнение к Java, то есть в сущности, насколько я понимаю, мне только и придётся, что писать запросы. Но хотелось бы охватить хотя бы поверхностно общие положения реляционных баз данных и всё такое.
>>1387382 Пока ты не поймёшь, что именно тебе нужно, и не сформулируешь вопросы, нет смысла заниматься разбором ответов. Что-то обобщённое в википедии написано.
>>1312894 (OP) Помогите с литературой. Нужна книга объем не важен где рассказывается о базах данных в целом, для получения общей базы нихуя каламбур, а потом более подробно рассматриваются распределённые БД. Если такая литература существует конечно
>>1387802 >Помогите с литературой. Нужна книга объем не важен где рассказывается о базах данных в целом, для получения общей базы нихуя каламбур, а потом более подробно рассматриваются распределённые БД. Если такая литература существует конечно
>>1372462 С хранилищами понятно. Там Apache Spark и прочая хуйня.
Но ведь тот же OLTP живет на MS SQL/Oracle/PostgreSQL разве нет в Ынтерпрайзе? мы сейчас не про залупные конторы из трех человек которые сайты на mysql пердолят.
Сменил три банка: обычно кроме MS SQL/Oracle ничего не видел.
>>1388370 >гомологической алгебры Уноси своё старьё обратно, быдло. Я начал с изучения вычислимых нумерованных множеств и построения функторов с преобразованием в категорию конструктивных моделей с обязательным семейством фридберговых вычислимых нумераций. Кстати, наиболее рациональный способ для получения конструктивной модели с фиксированной авторазмерностью. И не прогадал.
Кто-нибудь может пояснить за надежность хранения данных в текстовом документе (txt)?
Вот записано у меня там данных на 1кк байт, какова вероятность что информация будет считана ровно на этот 1кк байт без потерь? Или это зависит от старости моего жесткого диска? Возможны ли ошибки и как их устранять, есть что почитать (статьи/книги/видосы)?
>>1388557 >надежность хранения данных Определяется исключительно надёжностью хранения данных как таковых, формат не имеет значения. Если ты пишешь логи, то храни их хоть в txt, разницы нет, но запросы к ним ты писать уже не сможешь. я скозал
>>1387876 >Сменил три банка: обычно кроме MS SQL/Oracle ничего не видел. ну сами базы понятно, они никуда не денутся
я говорил, что сейчас логика над базами делается в ORM - в самом джава приложении, а не в процедурном языке базы. Такой тренд, туда идёт. Можно много плача про это почитать на том же скуль.ру. При таком раскладе "разработчики баз данных олтп" нахуй не нужны.
Сам был в десяти банках. Видел эти олтп. ЦФТ на диасофте стоит с окошками на делфях сверху и диды это поддерживают сидят. Нет там развития. И рынка особо нет (мне так кажется)
Добрый день, господа датабэйз инженеры Тут по Ораклу вопрос тупой есть. Поставил 18c XE и sqldeveloper. Как подключаться к ДБ как моя собственная схема из dba_users? Например, SCH_TEST с каким-то паролем. Или это вообще не про это? Тогда как создавать объекты бд так, чтобы они по умолчанию принадлежали схеме, а не писать постоянно create table schemaname.objectname.
Похоже, я гуглю как-то неправильно, но нихрена найти не удалось. Для stackoverflow считаю вопрос туповатым. Помоги, анон.
>>1389734 Когда создаёшь объекты без схемы, они всегда создаются в текущей схеме - по умолчанию это схема твоего пользователя под которым ты логинишься в бд. Текущую схему для сессии можно поменять через ALTER SESSION SET CURRENT_SCHEMA=...
>>1389753 Понял. Спс. Находил уже этот alter в ответах на форуме ораклов, но думал, что есть вариант получше. Потыкал интерфейс логина. Оказалось, другие настройки неправильно выставлял, а логин и пароль схемы рабочие были.
>>1390141 Пока сделал так: Каждое ФИО это отдельная таблица, где два поля - Дата и Время. Для каждой даты можно будет использовать несколько значений времени. Но мне кажется можно сделать не так дебильно, как у меня.
>>1390165 Попробуй погуглить в сторону графовых баз данных. Или же тебе нужно гуглить в сторону связей между сущностями, а может тебе просто нужно почитать про иерархические sql запросы.
>>1390141 Ты лучше словами объясни, что тебе нужно сделать. Потому что как ты нарисовал - достаточно одной таблицы с логическим ключом (id, timestamp), где id относится к конкретному человеку, а timestamp - время какого-то события.
Сап базач, на работе попросили запилить мультиордербук по разным биржам и чтобы клиенты смогли его аггрегировать да и шобы скейлилось изи на сотни бирж по тысячам пар, как лучше это сделать?
Пока что думаю запилить микросервис который будет складывать ордера в кластер редиса и клиенты через апи будут в этот кластер стучаться, но возникает проблема консистентности типа ордер всегда должен быть наиппоследним 1) приходит ордер во время T1, я начинаю класть его в редис 2) в это же время в другом потоке пришел ордер во время T2 (более актуальный) и я его тоже положил в редис раньше T1 3) ордер T1 положился в редис и перезаписал собой Т2
То есть у меня теперь в редисе неактуальное состояние ордербука, как такое разрулить можно? Можно ли в редисе как-то денаить запись если в записи таймстемп раньше уже записанного?
>>1390171 >>1390174 У меня приложение учета рабочего времени. Нужно на сервер с БД отсылать ФИО человека, дату и время его входа/выхода с работы. Посему нужна БД, в которой на одного человека приходится много Дат, а на каждую дату по два времени.
>>1390192 В таком случае ты какую хуету нарисовал выше >>1390141 в виде дерева.
Думай о SQL как о связке Excel таблиц, у которых связаны колонки и пополняются ряды. Для твоего случая тут вообще никакие связки не нужны, тупо пишешь в базу имя, дату-время входа и дату-время выхода.
Name | Time In | Time Out
Либо если вы имена где-то храните, то имя у тебя будет ключом к базе имён. Всё.
>>1390222 Зачем добавлять несколько записей? Новая запись -> новая строчка. Либо можешь проверять, есть ли запись Time In, тогда писать в Time Out, а если нет, то делать новую строчку.
>>1390222 Алсо, я так понимаю, с тебя потом спросят какие-то отчёты по посещаемости. Сразу прикинь, как ты будешь их строить с той схемой, которую ты делаешь. А то потом окажется, что ты всё пишешь, а сбор отчёта можно было бы делать намного проще. И спрашивать отчёты с тебя будут скорее всего как раз в формате пиво таблички какой-нибудь, из разряда кто опоздал, кто задержался и сколько времени за какой период переработал и не доработал. Так что сразу понимай, как ты будешь такой отчёт делать.
>>1390235 У меня в этом плане свобода действий, ты бы как посоветовал отчеты делать? Пока планирую запилить скрипт, который будет из БД записывать в эксель за каждый день опоздания, переработки и уже в экселе считать сводную таблицу за отчетный период. БД Access дружит с экселем?
>>1390246 >ты бы как посоветовал отчеты делать Хз как бы я сделал. Здесь надо ещё учесть несколько нюансов, например:
a) выходят твои сотрудники наружу или нет во время перерывов, и куда ты будешь это писать. По идее нужно записывать каждый выход и отнимать время отсутствия.
b) имеет ли для руководства значение каждый день (допустим, чтобы ни в коем случае сотрудник не работал меньше 8 часов суммарно за день) или важно считать только сумму часов за отчётный период (полмесяца или что там у вас). Если важно считать за каждый день, то надо чекать каждый день и ставить флажок и там отдельно считать пропущенные часы за каждый день, допустим.
с) имеет ли для руководства значение чекать переработку каждый день или нет, надо ли считать переработку или нет.
Access дружит с Экселем, разумеется, но тебе нужно будет всё равно экспортом заниматься.
Ну ты понел в общем, что тебе самому надо посидеть и составить на примере тестовых данных, как это будет выглядеть у тебя в конечном итоге.
>>1391148 Права схемы или от кого запускаю прогу? В открытом соединении в списке объектов базы могу всё создавать спокойно. Но что-то я тогда не понимаю зачем вообще эта кнопка "new" нужна.
Снова я и снова с Oracle. Почему APEX_WORKSPCE_ACTIVITY_LOG может не существовать? APEX 19, база 18 XE. _ACCESS_LOG и _SESSIONS есть тем временем. Арех свеже установленный. Название в новой версии поменяли? Как из SQL тянуть логи посещений страниц по юзерам? Нужно знать, сколько раз кто на какой странице был за текущую сессию. В мониторинге админском это можно посмотреть, но никто ж там не рассказывает, как именно эти вьюхи и таблицы называются. Собсна, нагуглить тоже не смог ничего. Может, мне логирование где-то включить надо или что или как?
>>1389540 >логика над базами делается в ORM >"разработчики баз данных олтп" нахуй не нужны
Это да, этого и боюсь ввиду того что кроме PL/SQL не знаю нихуя. Надо перекатываться в Java + Oracle иначе посадят меня в петушиный угол к аналитикам бизнес-показатели считать
>>1389540 >я говорил, что сейчас логика над базами делается в ORM - в самом джава приложении, а не в процедурном языке базы Попытайся создать что-нибудь сложнее круда. Попытайся создать собственную CMS или приложение, которое обрабатывает больше терабайта данных. И не смеши, пожалуйста, местных обитателей.
>>1391758 >какое у тебя в банке приложение, которое "обрабатывает больше терабайта данных" Ты хочешь сказать, что таких приложений нет и терабайта данных не может существовать?
>>1391770 Как ты думаешь, какой объём данных в системах, которые считают премии считают в условном мегафоне, ты думаешь, что там ОЛАП, а бизнес логику фиксят программисты? А если речь идёт о каком-нибудь здоровом складе, где нужно минимум привязать миллион товара к полкам. Про банки я даже говорить не хочу, любая джава там по пизде пойдёт.
>>1391774 ебать клован, я работал в десяти банках из топ 10, может в двух там в самых больших абсках там и есть таблицы на терабайт, но это хистори за года разбитая по партициям, которые в олтп запросе не используются. Ты вообще знаешь, что такое олтп запрос, ёба? он одну строку вытаскивает/апдейтит
>>1392120 Сколько тебе лет? Расскажи о своём опыте и зарплате. Что посоветуешь джуну, который решил найти своё призвание в БД, и даже работу пару месяцев назад нашёл? Есть смысл пытаться вкатываться во всякие Hadoopы? Работал аналитиком? >>1312894 (OP) А мне тут могут объяснить, чем вообще занимается аналитик со знанием sql, но без знания датасайнс? Подобных вакансий довольно много, требований мало, а зп выше средней по ДСам.
Антоны, помогите составить запрос, работаю в ms sql У меня есть таблица состоящая из id, parent, date parent - это числовое значение, оно может равняться 0, либо оно может равняется id строки, где это самое parent равно 0. Нужно выбрать значения где parent равно 0, но отсортировать их таким образом, что сперва будут идти те, у которого большее значение date из поста, где parent равно id поста, где parent равно 0.
>>1392285 > Сколько тебе лет? > Расскажи о своём опыте и зарплате. 25 лет, работаю год, получаю больше полусотни. Но это аутсорс. Опыт - почти только SQL, остальное учу сам, в пределах работы другое не получается использовать(пока, надеюсь). Попал скорее случайно, без знаний, пригласили на собес и там понеслась. Повезло с начальством в банке, которое ратовало за адекватную разработку, а не за быструю реализацию - стараюсь избегать быдлокода и ругаюсь, если вижу хуйню. > Что посоветуешь джуну, который решил найти своё призвание в БД, и даже работу пару месяцев назад нашёл? Логика. Учись писать адекватный код, разбирайся в плане запросов и не вороти хуйни, не делай лишнего. В идеале, то, что ты делаешь, должно работать максимально эффективно, без ошибок и без тормозов. Видишь, что можно что-то исправить и уверен в этом - пиши начальству, проявляй инициативу. > Есть смысл пытаться вкатываться во всякие Hadoopы? Работал аналитиком? А хуй его. Кто-то говорит, что хадуп - рудимент и скоро вымрет, а у меня есть инфа от коллеги, которая сменила место работы, что на ее новом месте очень ценятся разработчики хадупа. У нас они тоже есть, но про них мало чего знаю. > А мне тут могут объяснить, чем вообще занимается аналитик со знанием sql, но без знания датасайнс? Подобных вакансий довольно много, требований мало, а зп выше средней по ДСам. Аналитиком официально не работал, но так как обычно это люди, которые в SQL не разбираются и в оптимизацию не умеют, то приходилось выполнять работу за них. Чем занимаются? Бизнес говорит либо "хотим такую фичу", либо "вот тут хуйня какая-то, не сходится", а аналитик должен понять имеющуюся бизнес-логику и дополнить ее или найти, где же косяк в расчете чего-нибудь и на основании своих изысканий написать документ для разработчика, что именно он должен сделать - а разработчик уже должен привести код к стандартам разработки своего отдела, учесть процессы внутри своей системы и выкатить изменения по требованиям бизнеса. На деле выходит так, что в 80% аналитик получает формулировку от бизнеса и говорит разработчику: "бля, хуй знает, как это сделать, ты придумай, а я потом напишу доку, что именно нужно сделать для реализации требований бизнеса". То есть на деле от аналитика требуется выпытать у бизнеса, что они таки хотят и донести до них мысль "так нельзя", если они хотят хуйню.
>>1390165 Это вообще дичь, какие нахуй таблички по именам? Ты что делать будешь, когда у тебя новые пользователи будут появляться? А что будешь делать, если у тебя 10 ивановых инва иванычей будет?
Тебе нужно 1. Справочник пользователей, d_user (id, first_name, last_name...), id=1, name = Иван 2. Справочник с типами действий пользователей, d_action (id, name) id=1, name = вход; id=2, name = выход 2. Таблица с фактами входа-выхода, t_user_action (user_id, action_id, create_date) И пиши в нее все свои события.
Не делай никогда таблички на основе какого-то частного говна, это никогда работать не будет.
>>1392325 Если не юзаешь говно типа mysql, который в 2к19 не умеет в сте, тогда так: with cte as ( Select id, parent, date From t_data t Where t.parent=0 Union all Select c.id, c.name, c.date From cte c INner join t_data p on c.parent=p.id ) Select * From cte Order by... Сортировку сам напиши, ни хуя из твоего поста не понял.
>>1392371 Больше сотни - это если бы я жил в ДС и работал на этой же вакансии в московском офисе. Я же говорю - это аутсорс, мухосрань, потому меньше, но я более чем доволен таким раскладом.
>>1392483 Да хуй его знает. Ну, точнее, знаю. Лояльность к локальным начальству и коллегам, тян, планы. А так же осознание того, что очень много нужно будет поменять, устраиваться на новом месте и все такое. Я сижу на жопе ровно, потому что мне нравится и меня все устраивает, поднимать свои madskillz я без проблем могу и тут.
Допустим есть коллекция в монге. В каждом документе этой коллекции есть поле (список) с idшниками, которые указывают на документы из другой коллекции. Можно сделать что-то типа join? Или только на стороне приложения уже? Ну, т.е, сделать потом еще один запрос к нужной коллекции по этим idшникам.
Храню список idшников из-за того, что если бы вкладывал, был бы пиздецкий размер у каждого документа
>>1392922 Что это за вопрос, вообще? Для того, чтобы был олап, тебе потребуется откуда-то его наполнять. Это скорее всего будет олтп. Олтп используют для систем всяких, которые какие-то ОПИСЫВАЕМЫЕ процессы автоматизируют. Олап используют там, где заранее неизвестно, какие данные нужно смотреть и в каких разрезах. Ты вот конкретно с какой целью интересуешься? >>1392488 Я бы хотел, чтобы все умные люди приехали в Москву однажды, оставив в мухосранях ни хуя, чтобы местечковые царьки наконец-то поняли, что у них все прогнило, и народ голосует уже ногами, съебывая в ДС.
>>1393307 >Что это за вопрос, вообще? Ты, наверное, его не понял. Есть связи между таблицами, которые через primary key реализуются. Зачем их использовать? Где их чаще использовать? Может лучше использовать exists? Как они влияют на оптимизацию?
>>1393404 чесгря меня останавливает исключительно непонимание применимости ДСУБД, чтобы нырнуть в монгу или иже с ней а то так и получаются дурачки на конфах, задающие вопросы типа "я тут выкинул мускуль, засунул все в монгу и вообще никаких проблем не знаю"
Сап аноны, это опять я >>1387802. Читая книгу понял, что нужно выполнять примеры на какой-то конкретной СУБД, но до этого имел дело только с sqllite, но прочитал что в серьёзных проектах она особо не используется, скорее для мобилок и локальных БД. Посоветуйте какую-то широкоиспользуемую СУБД которую можно осваивать паралельно с чтением книги. MySQL подойдет для такой цели, или сейчас уже что-то другое используют?
>>1393839 >Посоветуйте какую-то широкоиспользуемую СУБД которую можно осваивать паралельно с чтением книги. Очень часто СУБД привязывается к ЯП. И сложности бизнес логики Если учишь C#, то это книга по MS SQL, если PHP, то MySQL Java- Oracle. Книги нагуглишь сам, но для начинающих, независимо от СУБД, очень хорошо заходит книга по t-sql Инцыка Бен-Гана.
>>1393839 >Посоветуйте какую-то широкоиспользуемую СУБД у каждой субд есть область применения, где она чаще используется в энторпрайзе - банки, телекомы, хуйомы - используется чаще Oracle, MS SQL в инторнетах используется чаще бесплатное говно MySQL, PostgreSQL, например, в компании майлсру
Роль вида "разработчик БД" чаще бывает в энторпрайзе. Все эти СУБД, включая оракл и мс скл можно официально скачать с интернетов и задрочвать до бесконечности.
>>1394586 >сколько тебе пришлось гуглить Мне гуглить не нужно было, у меня товарищ там работает, так что инфа от инсайдера: нихуя у них тарантул не используется во внутренних проектах, только в некоторых, но даже не во всех основных А так то там обычные PostgreSQL, MySQL и MongoDB https://mcs.mail.ru/databases/
>>1394362 >Ебанько, что ты несёшь? ебанько твой дед
тарантул не используют вместо постгре, он как кэш для постгре используется, педивикию посмотри хоть
это вообще не альтернатива реляционным субд
был на трех собесах, про тарантул не слуху не духу
вообще это говно они 3+ лет назад пушили. Сейчас не слышно. До разработок яндекса, типа кликхауса, которые в каждом углу стоят в индустрии - им как до китая раком.
>>1395396 Хуя ты упёртый, хаха, три захода в гавань мэил.сру. Ебать ты одаренная дитя лол. Бог любит троицу?)) так сильно хотелось выёбываться в офисе тарантул нинужно яскохал ряяяяя. Дитя, ебать ты потешное.
>>1396964 пизжу, Aerospike, Mongo, CouchDb поддерживают асид. ну, осталось подождать пока они вытеснят оставшиеся СУБД (до, приблизительно, никогда), и можно ливать из DBA
>>1397167 Пидор ленивый, ты тредик не попутал? Если ты дошёл до бд, то гуглить уже научился, справишься сам! Иногда аноны упоминают название годных книг
>>1397266 Ну да. Ты не увидел, что это левый джойн? Это условие не выполнится ни для одной строчки для таблицы справа - значит, там будут наллы в присоединенной таблицы, но в выборку попадут все строки из tbl a. После группировки по полю первичного ключа все строки удовлетворят условию count(*) < 11. Запрос вернёт все строки из таблицы, а их пять.
>>1397584 >Ты не увидел, что это левый джойн? Э Он джойнит её с собой. Это аналогично from tbl a left join tbl b on a.x =b.x where a.x is null a.x - левая таблица, каким образом там будут nullы?
>>1397600 >>1397595 Господа, покурите, пожалуйста, внешние джойны. > >Ты не увидел, что это левый джойн? Э > Он джойнит её с собой. > Это аналогично > from tbl a > left join tbl b > on a.x =b.x > AND a.x is null > a.x - левая таблица, каким образом там будут nullы? Условие на левую таблицу в соединении, а не в where. Вы где SQL учили?
Сап програмач. В общем суть такова: Есть у меня таблица, которая состоит из ключа и 9 других атрибутов. Так вот, как мне запилить проверку ограничение, триггер, хз на то, чтобы только один из этих девяти атрибутов был ненулевым? Ну то есть вот кортеж, ключ ясен хуй, один из 9 атрибутов чем-то забит, остальные пусты. И так каждая запись в таблице.
>>1312894 (OP) Господа, перепиливаю под себя программу с кучей (около сотни) SQL команд (выборка, добавление, удаление), к ней идет БД формата СУБД MS Access, в ней я меняю почти все наименования (таблицы, столбцы) неизменной остается структура и впринципе логика. Скажем был склад овощей, делаю склад фруктов.
Так вот, нет ли инструмента/способа автоматом переделать эти запросы под уже новую БД, то есть прописать там что "название овоща" меняем на "название фрукта" и тд, а оно бы уже зная сие в запросах где нужно заменило бы что нужно ? Вручную это пиздос, пробовал через замену, но по всей видимости где - то заменяется не то что нужно или не дозаменяется и все идет по пизде. Может я аутист и средствами того же Access это можно сделать ? Т.е импортировать запросы из проги, поменять в БД что надо, как - то поменять запросы, экспортировать в прогу...
>>1400954 >Может я аутист Таки скорее всего, но все же >средствами того же Access это можно сделать ? Т.е импортировать запросы из проги, поменять в БД что надо, как - то поменять запросы, экспортировать в прогу Это в мою головушку пока я писал пост как - то же пришло. Чекнул режим SQL в Access и вауля, он сам меняет в запросах при изменениях БД. Заебись, надеюсь синтаксис общения OLEDB такой же как внутри СУБД, тогда можно считать что моя задача решена.
>>1400813 я делаю так: %function_name% ( (CASE table.A IS NULL THEN 0 ELSE 1 END) + (CASE table.B IS NULL THEN 0 ELSE 1 END) + ... ) = 1 этот case замени на более удачную функцию под твою СУБД
можно заебенить как CHECK CONSTRAINT для твой таблицы, если наличие больше одного ненулла недопустимо
Как реализовать загрузку новых данных не дропая старые и обновляя изменения средствами SSIS? Сейчас работает на MERGE, но не знаю насколько правильно скриптом это делать, если инструментарий визуальный есть, где можно лампово на циферки смотреть.
Хочу разобраться с постгрескьюл, поставил 11ую, а у меня на компе уже стоит 9.5, которая, походу, используется какими-то приложениями - не ебу какими. Вся проблема, что когда я вызываю инструменты постгре из под командной строки у меня постоянно лезет ошибка о неправильном пароле, хотя в пгадмин, например, с этим паролем залазит спокойно. Что делать то в итоге? Как переназначить вызов программ в консоли со старой версии на новую? Или как отследить приложения которые работают со старой версией - может они мне вообще не нужны?
Сап аноны помогите с пониманием связей. Почему после создания не идентифицирующей связи в дочерней таблице при добавлении записи все равно требуется указывать данные из родительской т.е. Foreign key. Просто я думал сказали в шараге, что суть неидентифицирующей связи в том, что в дочерней таблице могут быть записи без связи с родительскими, но видимо это не так.
>>1402441 Все в точности наоборот. У тебя есть департаменты и сотрудники. Департамент без сотрудников может быть, а сотрудник без департамента - нет. Кто здесь родительская запись? Правильно, департамент.
>>1402451 То есть насколько я понял при любом типе связи, дочерняя запись обязана иметь родителя? Просто сам пример с департаментом понятен в этом плане, но он не очень точно передает видимо только для меня суть неидентифицирующей связи. Сам Интернет говорит мне о внешнем ключе в первичном ключе (идентифицирующая) или о внешнем ключе не в первичом (неидентифицирующая), но в чем же причины использования этих типов?
>>1402460 Ну, я дохуя умный и не совсем верно тебя понял. Скорее всего речь о тех внешних ключах, которые позволяют однозначно определить дочернюю запись(связь один к одному) или нет(один ко многим). Например: есть таблица договоров, карточных счетов и таблица связи между ними. В таблице связи ссылка на таблицу договоров - неидентифицирующий внешний ключ, потому что ты на один договор может быть несколько карточных счетов(один ко многим). То есть ты не можешь однозначно идентифицировать запись в таблице связей только по договору, т.е. это не уникальный ключ. А вот карточный счёт в этой таблице, который есть ссылка на таблицу карточных счетов - это уникальный ключ таблицы, потому что один счёт не может принадлежать нескольким договорам(один к одному), то есть это тот самый идентифицирующий внешний ключ.
С другой стороны, это все без гугла на основании собственных выводов, так что я могу и проебаться с объяснениями.
Вопрос тем кто хостился на амазоне. Не могу подключиться с сайта, который там же, к базе (внутри одного инвайронмента). Во всяком случае в "client connections" не видно чтобы происходило подключение. Со своего компа с теми же настройками подключения - могу. Нужно менять security group и добавлять туда сам амазон или причина может быть в другом?
Как делать выборку по условию из двух таблиц если они между собой связаны через другую таблицу, а не на прямую? Я именно не понимаю как записать inner join в таком случае.
>>1403324 Ёпта блядь, я наблюдаю за этим и охуеваю. Есть таблица A с полем X, есть таблица B с полем Y, есть таблица C с полями X и Y. Охуенно прямые связи, не правда ли? Что тебе мешает представить запрос вида select * from a join c on a.x = c.x join b on c.y = b.y?
>>1393839 mysql используют, только ты глотнешь говна и помыкаешь горя эта говносисистема на хую видала половину стандарта и половину нормальных человеческих представлений о том, как что должно работать (not null констрейнты в некоторых ситуациях ведут себя так, что ты обязательно охуеешь, например). Если не боишься - вперед. Если хочешь по-нормальному, бери постгрес. Стоит столько же (ни хуя), но является настоящей субд.
Аноны, есть какойто рабочий способ настроить мультимастер под Postgres с помощью SymmetricDS? Гуглятся только примеры для SymmetricDC pro, где это вообще делается нажатием несольких кнопок в гуи, и большой мануал от создателей, где много информации о куче концепций, но очень мало конкретики и примеров.
Есть одна должность которая маячит в банке. Собес на следующей неделе, есть время подготовится. Написали из требование только:
Ожидаемый опыт: - Знания Oracle SQL, PL/SQL - Понимание принципов разработки OLTP систем - Умение разобраться в чужом коде - Умение отлаживать код - Умение работать с документами
>Знания Oracle SQL, PL/SQL Про это расскажу думаю. Спросят поди про синтаксис, основные конструкции. Индексы, партиции, план такое говно.
>Понимание принципов разработки OLTP систем Что тут хотят от меня? Ну индексы не вешать чтобы вставка была быстрее, ну sql аналитику не крутить на oltp базах, что еще тут рассказать?
>sql-ex за полгода и устраиваемся в ДС на 100 000 без задней мысли И на какую позицию можно претендовать ? Пишем в сопроводительном письме, что я осилил все задачи на sql-ex и profit ?
>>1410732 Если ты осилил все задачи оттуда, то у тебя непременно будет сертификат. Но работодателю зачасьую интересно, умеешь ли ты решать задачки с практической точки зрения, поэтому он будет их тебе давать прямо на сбоеседовании, тут-то ты и врубишься, что ты их можешь решить без задней мысли, ведь миллион раз дрочил их на этом sql-ex.
Обсуждаем базы данных во всех возможных реализациях
Структуры данных, ER-модели, key-value, хранилища, снежинки, звёздочки,
Оптимизируем запросы, написанные криворукими аналитиками,
Создаем времянки с одной строчкой,
Колонизируем индексы,
Коммитим транзакции,
Проводим sql-инъекции,
Пиздим за кривую табуляцию в процедурах, функциях и вьюхах,
Рассказываем тупым студакам, как заджойнить 2 таблички, чтобы сдать очередную лабу преподу-старпёру при смерти.
Ну и, конечно же, проходим бесплатные курсы на sql-ex за полгода и устраиваемся в ДС на 100 000 без задней мысли.
Погнали.
Прошлый тут: https://2ch.hk/pr/res/1222346.html