Naoto Yokoyama
Naoto Yokoyama
@eru 厳密に作業効率がどう変わるかを論じるのは難しいが,基本情報と各話情報を分けると,少なくとも基本情報については見通しが良くなる. そのため,ファイル分割を前提とした上で,さらに各話情報の編集効率を上げるために,その「各話情報を作品ごとにファイルで分ける」という方式を提案していると解釈する. その方式を採用すると,ファイルサイズは小さくなるが,当然ファイル数が多くなる.ファイル数が10^3〜10^4 オーダーになってくると,一つのディレクトリで管理することは難しい. そうなると,年代・クールなどの基準によってさらにディレクトリを分けることになるだろうが,今度はプログラムでデータを扱うのが煩雑になってくる(どのディレクトリに該当ファイルが存在するかをシーケンシャルに確認する必要がある,etc.) Linux カーネルでもファイル数は 53,647 個程度らしい(ref: [増え続けるLinuxカーネルコード、2016年第1四半期の総行数は2100万超 | マイナビニュース](http://news.mynavi.jp/news/2016/04/11/130/)). Anime DB は今の段階では極少人数で管理すること,これからスタッフやキャラクターも追加することを考慮すると,その判断は少なくとも時期尚早であると思う.
指摘の通り各話情報の増加頻度は非常に高いので,どこかの段階で `episodes.yml` を分割しなければならない. 将来的にファイル数を抑えて `episodes.yml` を分割する方法としては,例えば以下のやり方がある(細かいところはもっとベターなやり方があるだろう). - どこかの時点で,`episodes2.yml` などとして,別のファイルに各話情報の半分を移す - `episode-locations.yml` ファイルを用意して,そのファイルに id からファイル名へのマッピングを書く
https://github.com/anilogia/animedb/issues/46#issuecomment-263167109 の計算で行くと,週に420行増えるとして,作品の増加率を無視すると,1年で 21,840 行しか増えないのか. `episodes` への大規模なマージ作業は基本的には過去の作品のみで完結するので,単純入力作業なら1ファイルで当分良さそう.
ありがとうございます. 誤っている項目を見つける方法で悩んでいたのでとても助かります 🙇 ヒット数 0 のものが 2,692 件あるので時間はかかりますが,このデータを手がかりにして修正いたします.
劇場版表記のものや半角/全角スペースの違いによるもののフィルタリングも含めて,以下のように分担する. [google-ime-dict.txt.hitnum.zip](https://github.com/anilogia/animedb/files/611108/google-ime-dict.txt.hitnum.zip) でヒット 0 のものを行数で分担. - @eru 1 - 897 - @honeshabri 898 - 1794 - @builtinnya 1795 - 2692
Did you uncomment `aws.us-east-1` definition as described in README? ```tf # If the parent module provider region is not us-east-1, define provider for us-east-1. # #provider "aws" { # alias...
@zerac I'll look into the problem when I have time. Thank you for your report 😄 and PRs are always welcomed 😉
The repo doesn't exist. It seems to be a typo.
For those who are struggling with rollback of specific migrations from CLI, which is not working as intended, I submitted a pull request (#51) to fix the bug.