AOKI's copy&paste archive

高専から駅弁大学から東工大を経て大企業へ 浅く広い趣味とかキャリアの日記を

Statistics Test As Data Science

# -*- coding: utf-8 -*-
"""
Spyder Editor

This is a temporary script file.
"""
#import modules
import numpy as np
import pandas as pd
import datetime
import scipy.stats as stats
import matplotlib.pyplot as plt
from sklearn.tree import DecisionTreeClassifier
from sklearn.tree import export_graphviz
from sklearn.cluster import KMeans
from io import StringIO
import pydotplus
from IPython import display

#input master data from csv
df = pd.read_csv(r"C:\Users\*.csv", encoding = "utf-8")

#%%data cleaning
df['生年月日'] = pd.to_datetime(df['生年月日'])
df['提出日'] = pd.to_datetime(df['提出日'])

#%%
#2020/1/1からの日付差分で再格納
df['生年月日'] = (df['生年月日'] - datetime.datetime(2020, 1, 1)).dt.days
df['提出日'] = (df['提出日'] - datetime.datetime(2020, 1, 1)).dt.days

#0でないと結果がまとまらない
df = df.fillna(0)#???

#%%string to dummy
df_pref = pd.get_dummies(df['都道府県'])
df_business = pd.get_dummies(df['業種'])

#objective variables to dummy
df['Memo'] = np.where(df['提出日'] == 0, 0, 1)

#concat
df = pd.concat([df, df_pref, df_business], axis = 1)

#%%chi2(squre) test
chi2test = pd.DataFrame()
for column_name in df_pref:
    if column_name != 0:#avoid error
        stat_master = df[df['Memo'] == 1]
        pref = stat_master[stat_master['都道府県'] == column_name]['Miss']
        if len(stat_master) > 0:
            crossed = pd.crosstab(stat_master['Miss'], stat_master[column_name])
            x2, p, dof, expected = stats.chi2_contingency(crossed, correction = False)
            n = crossed.sum().sum()
            cramerV = np.sqrt(x2 / (n * (np.min(stat_master.shape) - 1)))
            chi2test = chi2test.append([['*', column_name, len(pref), sum(pref), 
            sum(pref) / len(pref) * 100, p, x2, cramerV]])


chi2test.columns = ['種類', '都道府県', '全件数', 'Miss', '*率(%)', 'P値', 'カイ自乗値', 'クラメールの連関係数']
chi2test.to_csv('chi2test_pref.csv')


#%%T test
ttest = pd.DataFrame()
for column_name in df_pref:
     stat_master = df[df['*'] == 1]
     construct = stat_master[stat_master['都道府県'] == column_name]['Miss']
     if len(construct) > 0:
         others = stat_master[stat_master['都道府県'] != column_name]['Miss']
         t, p = stats.ttest_ind(construct, others, alternative='less')
         ttest = ttest.append([['*',column_name, len(pref), sum(pref),
                                sum(pref) / len(pref) * 100, t, p]])
    
ttest.columns = ['*', '都道府県', '全件数', 'Miss', '割合', 'T', 'P']
ttest.to_csv('ttest_pref.csv')

#%%dummy source data drop
df = df.drop(columns=['ID', '都道府県', '業種', '提出日'])

#%%cal corr
df_corr = df.corr()
df_corr.to_csv('correlation.csv')

#%%
def decisiontree(x, y):
    if len(x) > 10000:
        depth = 4
    else:
        depth = 3
    tree_clf = DecisionTreeClassifier(max_depth = depth)
    tree_clf.fit(x, y)
    predicted = tree_clf.predict(x)
    print(len(y), ': ', int(sum(predicted == y) / len(y) * 100), '%')
    
    g = StringIO()
    export_graphviz(tree_clf, out_file = g, 
        feature_names = x.columns, 
        class_names = x.columns, 
        rounded=True, filled=True)
    graph = pydotplus.graph_from_dot_data(g.getvalue())
    graph.set_fontname('MS UI Gothic')
    #Setting font for Node 
    for node in graph.get_nodes():
        node.set_fontname('MS UI Gothic')
    
    #Setting font for Edges 
    for e in graph.get_edges((sad)
        e.set_fontname('MS UI Gothic')
        
    graph.progs = {'dot': u"C:\\Program Files\\Graphviz\\bin\\dot.exe"}
    display.display(display.Image(graph.create_png()))
    

 for column_name in df_pref:
     construct_decisiontree = df[df['Memo'] == 1]
     construct_decisiontree = construct_decisiontree[construct_decisiontree['都道府県'] == column_name]
     x = construct_decisiontree['Miss']
     construct_decisiontree = construct_decisiontree.drop(columns = ['Miss', 'Memo'])
     if len(x) > 1000:
         print(column_name)
         decisiontree(construct_decisiontree, x)

kmeans = KMeans(n_clusters=3, random_state=0)
clusters = kmeans.fit(df)
df['cluster'] = clusters.labels_
print(df['cluster'].value_counts())

df.to_csv('Reformed.csv')

print('fin')

最近の作業内容を内容がわからないよう多くを削除して、残った部分も一部書き換えて公開する。
コードならGitHub使えって話だし、エンジニア的キャリアを見通してポートフォリオを作るにはそのほうがいいのだが惰性。

コードの内容、目的としては、統計検定や決定木分析。
流行りっぽい言い方をすれば、AI分析だが、その実、大したことはないし、内部的な数学は大学初学年レベルといったところか。

私自身、統計は実はそれほど得意でないこともあり、試行錯誤による手戻りも多かった。
まずコード中にT検定(Ttest)があるが、これは定量データ同士でしかできない。
在学中は揃ったデータセットに恵まれたが、世の中それほど便利でもない。

統計学入門−第5章


そこで厳密な統計検定には、χ二乗検定が必要で、それがChi2testだ。
マーケのABテストの効果の評価も、同様の理論が用いられる。
私の分析はToC分析ではないが、ベースとなる数学基礎は共有できるし、経験としてマーケへの転換にも活かせるかもしれない。

「ノイズ」を避けるために、マーケターが持つべき「統計的思考」と「判断の構造化」 | AdverTimes(アドタイ) by 宣伝会議

ちなみにここでの苦労として、T検定は条件で片側ずつ検定できたが、χ二乗検定は平均との差で左右、すなわち増減が加味できない。
平均と差があるか、ないかしか、判別できない。
実際にはどっちに有意差があるかが、人間としては重要だ。
そこの判別が難しかったが、幸いにしてT検定とP値は類似傾向だったので、どっちで出たかで分類した。
あるいは平均との差の正負で。

しかしガチガチの統計検定は、有意差の有無の仮説棄却しかできない。
応用性に難がある。
そのためFor文でループして、上記の例文では都道府県で回している。
ちなみにこの前処理として、名義尺度でテキストになっているデータを、47都道府県でそれぞれダミー変数変換している。

しかしこれでもP値でランク付けするのが限界であるし、棄却域に対する真偽値以外の意味は薄い。
そこで尤度、信頼性は相対的に低下するが、決定木でデータ構造の分析も試みた。
お硬い統計では、結果自体の外部(経済)性が期待できないというのもある。
世の中、AIを評価しても、その中を読める人は限られる。
事実上、このレベルですらブラックボックスと言える。
将来的にはPytorchも自習がてら活用したいが。。
実際には上記のダミー変数などなどでカラム数は、かなりの量であるため、記載の木の深度がいい塩梅だった。

ただし上記の分析のそもそものデータソースに関して、Corrに示した相関表、相関係数自体が低い。
そもそもデータにおいて、因果関係があるかもやや曖昧ではある。。

将来的にここで”優位”だった変数をまとめて、ロジットモデルを構成して、予想式を立式したいところだ。
ちなみにこのままロジットモデルにデータフレームの元データを入れると、解が収束しない。。

これもダミー変数を主とするデータ構造自体に課題がある。
世の中、計量尺度を集積するのは非常に難しいし、名義尺度ですら正しくキレイに集積するのも難しい。
表記ゆれなど。あるいはValidationがないと。。

こう全体的な部分を半ば自前で経験すると、統計局の仕事に非常に頭が下がる。
かつてあった捏造は許せないが、その苦労もかなりのものだったろう。

Prince Ice World

f:id:pytho:20220228195522j:plain

 

先日、社割だったこともあり、PIWを観覧した。

スケートの現地は初めてだったが、なかなかに刺激的で面白かった。

 

私自身、世俗に疎く、芸能を始め、スポーツ会にも疎い。

しかし本田姉妹、紀平梨花さん、田中刑事さんは、聞き覚えがあり、さらにそれぞれ個人のパフォーマンスもあったが、確かに素人目でも高水準だった。

本田さんは音楽と表現の調和がよくできていた。

田中さんはジャンプがレベチだった。確かに何回転しているかわからないが、雰囲気他より+1回転に見えた。

紀平さんは全体的な完成度と安定感があった。小並感。

特に後者2人はトリに相応しい人選に思えた。

 

 

内容自体は思いの外現代的だった。

というのもスケート全般、上品でお硬いイメージがある。

しかしそれを打破するような雰囲気があった。

特に冒頭からのゴリゴリの重低音のポップスは度肝を抜かれた。

さながらLALALANDのミアがキースのバンドのライブに行ったときのようだった。

 

個人的にこの反体制的な活力はいいと思うし、そのギャップにこそ価値を感じさえする。

ただ上述のソロは保守的に落ち着いていたのも、バランスがとれているように感じる。

本来的に予想していた見たかったようなものを見る安心感も担保されている。

公式大会は完成度が高い反面、内容がやや同質化するので、そういう意味でも入門向けで楽しみやすくなっている。

氷上の団体競技としてのTips紹介のセッションもあった。

 

あるいはダンスはもちろん、団体行動、新体操やアイドルのライブに類似するスカイアクションもあるので、そういったものをベースと考えてもいいかもしれない。

実際、30代くらい?の女性客が多く、「団扇」のようなものも散見された。

光GENJIが思い出される。

アイドルファンの女性たちのイラスト | かわいいフリー素材集 いらすとや

 

www.youtube.com

 

各要素においては、その道のプロに敵わないのが現実であるが、ミックスした複合文化の新表現として興味深い。

 

ただ出自上、やや気がかりだったのは、現場猫、いわば労災的な懸念だ。

手首に命綱のようなものがつけられているが、公演中に舞台上でサッとつけてOKなのか心配だった。

しかも奈落が問答無用で硬い氷であり、タイミングが悪ければ、下の人にスケート靴のエッジが刺さりかねない。

このあたりは職業柄というわけではないが、ニッチな懸念、悩みだろうが。

 

残念だった点はもう1つあり、ペアの表現の要素が著しく少ないことだ。

これはこの界隈に限らず、日本の個人主義の文化背景の限界かもしれない。

 

youtu.be

 

せっかく多数のメンバーがいるので、中にはペアに比較的特化したメンバーがいてもいいと思うし、本国の競技の未来の方向性を鑑みれば、強化する絶好の機会だろう。

メンバーが多くいれば、組み合わせの試行も多く行え合理的だ。

 

とはいえ完全にペア的表現がないわけではない。

専門的な技術名は知らないが、男が女を遠心力でぶん回すものや、簡単なリフト的なものもあった。

 

 

性格上、批判口調が強めになってしまった点は自省するところだ。

しかしまさしく銀幕のアイドルで、性別問わず推せるコンテンツだなと思えた。

ハラハラするがジャンプ前の成否は、現地の独特の緊張感もある。

それを一体的に応援する団結感もある。

テレビの画面越しでも同じように感じられるが、現場だと本人に伝わるかのような気持ちになる。

個人的にはこれが1番の味噌に思えた。

 

これは舞台上の表現全般で当たり前に行われていることだが、役者らの笑顔も元気を貰える。

 

そういえば演劇の類はあまり見たことがなかったので、来年度積極的に見てみるのも趣味や教養の幅を広げる好材料になりそうだ。

それこそ宝塚なんかも。

 

ただしスケート場は底冷えするので、防寒対策は万全にすべきだ。

今回は上はセータだったのでよかったものの、ズボンの厚さが足りなかった。。

懐かしのVBA

会社で専らVBAを使っている。
恥ずかしい話かもしれないが、割とDX途上な印象もあったりで、力技で解決を図る場面もしばしば。



せっかくなので会社としてクリティカルな部分は避けつつ、どんなものを作って運用しているか紹介する。
まあ早い話、いわゆるこのブルシットジョブも強力なツールを導入してしまえば、ダッシュボードで済む話なのだが、経営陣は契約料より私らの人件費が安いという判断なのか、しょぼい契約でお茶を濁されているらしい。
なのでエクセルマスターにならざるを得ない。

正味、パートナーの各社にも迷惑だと思うのだが笑

そんな環境もあり、エクセルの延長でVBAが環境上使い勝手がいいという実情がある。
ちなみにタイトルにも示した通り、VBA自体はひどく久しぶりで高専の3年か4年に課題で少し触って以来だ。
それ以降は、R、MatlabPythonJavaでそちらのほうが基本的に優秀だったので。。

もちろん具体的な数理計算やグラフ出力は、諸々を明示に指定しやすいPythonなどのプログラミング言語が安パイである。
しかし部署として展開しにくく汎用性が低く、属人性が高まりすぎてしまったりで微妙な立ち位置だ。
とはいえ、文系の会社なので、所詮ゴミみたいなVBAであったも、かなりちやほやされてしまうのだが。

そんなゴミコードが下記だ。
ダッシュボードに代替できると書いたように、DBのサイトからファイルを落として、シート貼り付けやDoDを計算して指定フォルダに保存するだけだ。

もともとはこれを人力でやっていたのだから、正直呆れてしまう。

Option Explicit

Sub togather()
    Call copypaste
    Call scrp
End Sub

Sub copypaste()
    
    Application.ScreenUpdating = False
    Application.DisplayAlerts = False
    
    Dim wb As Workbook
    Set wb = ThisWorkbook
    
    Dim i As Long
    Dim today As String
    today = Format(Date, "mmdd")
    
    'DoD
    wb.Sheets("サマリ").Columns("B:R").Copy
    wb.Sheets("サマリ").Range("Z1").PasteSpecial xlPasteValues
    
    'Clear SF Area Data
    wb.Sheets("案件").Range("a6:ac6").AutoFilter
    wb.Sheets("案件").Range("a7:ac100000").ClearContents
    
End Sub

Sub scrp()
    
    Application.ScreenUpdating = False
    Application.DisplayAlerts = False

    Dim Driver As New Selenium.WebDriver
    
    Dim FileTime, MaxTime As Date
    Dim FileName, MaxFileName As String
    Dim URL, pass, user, today As String
    
    today = Format(Date, "mmdd")
    
    URL = ThisWorkbook.Worksheets("更新方法").Range("C10")
    user = ThisWorkbook.Worksheets("更新方法").Range("C11")
    pass = ThisWorkbook.Worksheets("更新方法").Range("C12")
    
    If pass = "" Then
        MsgBox "Password:C12 is Empty"
        Exit Sub
    End If
    
    Driver.Start "Chrome"
    Driver.Get "https://*****.com"

    'Driver.Close
    'Set Driver = Nothing
    Driver.Get (URL)

    With Driver
        .FindElementByName("***").Click
        .FindElementById("***").AsSelect.SelectByIndex 3
        .FindElementById("***").AsSelect.SelectByIndex 0
        .FindElementByName("***").Click
    End With
    
    FileName = Dir("C:\Users\" & user & "\Downloads\" & "*.csv")
    
    'Get Data as Latest CSV File
    Do While FileName <> ""
        
        FileTime = FileDateTime("C:\Users\" & user & "\Downloads\" & FileName)
        
        If FileTime > MaxTime Then
        
            MaxTime = FileTime
            MaxFileName = FileName
            
        End If
        
        FileName = Dir()
        
    Loop
    
    
    Workbooks.Open "C:\Users\" & user & "\Downloads\" & MaxFileName
    
    'SF paste to Certain Area
    ActiveWorkbook.Worksheets(1).UsedRange.Copy
    ThisWorkbook.Worksheets("案件").Range("A7").PasteSpecial xlPasteValues
    ActiveWorkbook.Close SaveChanges:=False
    
    'ReCalculate
    Application.CalculateFull
    
    'Save
    ThisWorkbook.SaveAs "C:\Users\" & user & "\***.xlsm"
    
    MsgBox "Fin."
End Sub


正直スクレイピングの部分は、ドライバ更新含む環境構築が厄介めなので、必要性が微妙である。
しかし規定の動作は、積極的にマクロ化すべきなのは言うまでもない。

個人的にはこんなことは、ダッシュボードで管理職が好きなときに好きなように見てほしい。
IT後進の新卒ソルジャーの辛いところだ。
とはいえ、労働環境や金払いはかなりいいので、転職即決ともならない微妙さ。

反して個人的には蓄積されたビジネスデータを、ヒートマップに可視化したり多変量解析やビジネス上のボトルネックを回帰分析や決定木分析して、課題解決に当たりたい。
しかしリソース的にそこまで回らない残念な実情がある。

恐らくこういうところがどうにかならないと、会社としてひいては国としても時代に取り残されていってしまう懸念がある。
正直こんなマクロをやっているのでは周回遅れで、そもそもデイリー作業ならRPAは最低条件だと思っていたのだが。
下記のようなテクノロジーにおいては、上記すらいわばコモディティ化してくる。

DeepMindのAI「AlphaCode」は競技プログラミングレベルのコードを書ける | TechCrunch Japan


ちなみに文句垂れ流しの論調だが、オミクロンの拡大の危機感もあって、ようやく私の部署も在宅の波が来た。
部署やPJTのプライオリティの高さがあろうと、それとこれはちょっと別なんじゃないかとかとも思ったりしていたが。



ただ在宅だと下記動画的なところが、多少はあるのは否めない。
とはいえ、会社で真面目にしすぎなだけで、人間である以上、ある程度余裕を持って働くべきだと思う。
下手に配属後に出社をしばらく強制されただけで、日本社会の伝統に洗脳されかかっていたのかもしれない。


www.youtube.com


彼の動画はここのところ、自分に重なるように思うところもあって、過去動画含めハマリ気味だ。
さすが世界企業で、うちも国内では良好な方とされるが、上には上だ。


www.youtube.com

www.youtube.com


最後に私の部署は、曲りなりにもデータサイエンスとついているが、上記動画も参考になる。
要は結局は特別で現場を仕切るスペシャリストというよりも、その役職としては所詮部課長陣への数理的補助に留まるといったところだ。
言われてみれば当然だが、昨今のブーム、風潮を正しく抑止する含蓄が、世界レベルとして含まれているようで感心する。

ただ現状では受注に徹してしまっているので、上記のように各種統計分析をサッと差し出して、改善策を提案することを裏の使命と認識している。

2022冬休み読書感想文

ここのところ本の内容をまとめられていなかったのでやっておく。

理由は大きく2つあって、まず新卒一年目で配属されてしばらく経ち、業務が本格化し忙しくなってしまい時間がとれなくなってしまったこと。これに関しては、冊数は減少気味なものの、通勤時間があるので読書時間は十分に担保されている。

第二にとある本の主張がこの行動を再び動機づけさせた。これは感想とともに後述しよう。

ブログの感想文なので、詳しい著書や出版社は楽天のリンクを参照していただきたい。

 

 

Zero to One

一冊目はガッツリビジネス系。Paypalマフィア出身の著者が、直近の起業ブームに物申す。

下記動画のサムネにもいる彼らのその後を見ると、マフィアとは言い得て妙だ。

 

youtu.be

 

起業は直近では失敗率も高いため、スモールスタートで数を撃ちまくるLEENがもてはやされている。これは大学での起業家教育でも、取り入れられていた。東工大のToTALでも。

ただその定説に逆張りして、目的意識の明確化や準備の重要性を説くのが要旨だ。そこで既存のLEENを重視する大学教育も批判している。

またビジネスの豊かな経験に基づく鋭い洞察もあり、経済学的な独占も重視している。営業を重視するのも同様だ。

一方で破壊的技術に伴い市場破壊には懐疑的で、既存市場との協調路線を推奨している。

最後に興味深かったのは、いわゆるアスペ気味で人付き合いの苦手な方が、非競争環境にいて却って強みにいるとの見方だ。そこではチームの力にしづらいから個人の能力やセンスが相対的に重視されるだろうが、必ずしも仲良しこよしが最良でないというのは驚きとともに、幅広い人付き合いがどちらかというと苦手な私には天啓にも思える。

とはいえ、そもそも起業家あるいはそれに近い人らは柔軟な思考回路、MBTIでいうP型の傾向での相性がいいであろうから、頑固な私はユニコーンになったあたりで混ざらせてもらったほうが効率的なのではと夢想したり。

 

 

レンブラントの身震い

きっかけ

どこぞの科学系の推薦書に挙がっていたので読んでみた。

目下同じくニコラ・テスラのものも読書中だ。

同様に推薦された零の発見も同時に読んだが、本書と被るところも多い印象で、こちらが上位互換な印象もあったので、こちらの紹介に留める。

科学道100冊ラインナップ – 科学道100冊

 

そういえば、この中に東工大リベラルアーツの伊藤先生を中心に、東大の哲学者の国分先生らを交えた利他も含まれていた。

これは当ブログではタイミングの問題でまとめなかったが、普通に面白くおすすめだったとここで述べておこう。

 

概要

本書は数学者の著者が最新のAI技術を紹介しつつ、そこで題名にもある芸術との比較を通じてヒューマンコードの人間の言語化しがたい感覚的なものとの見方、要は現代的な哲学を展開する。

本書の短所を挙げるなら、テクノロジーとアートの両方に一定の前提知識がないと、その内容の深部を測り味わい自分ごとに落とし込めないことだ。私自身を棚に上げるつもりはないが、日本の今日の文化的な生活においても、あるいは最新技術の応用にしても、ここに追いつける人は限られてしまうだろう。

もちろん技術に疎い人が現代動向を知ろうとしたり、あるいは技術者がリベラルアーツの材料や今後の事業アイデアを探そうとライトに読むのも、それは当然読者の自由ではあるが。

 

蛇足セレンディピティ

著書が数学者であることは先に述べたが、その妻がイラストレータだそうだ。やはりこうした異分野の融合の掛け算は強いし、希少性とセレンディピティに圧倒的な優位性を感じる。

確かこんな著者の家族構成の本を前にも読んだぞ。

 

pytho.hatenablog.com

 

そんな感じなので、というかそもそも海外の著書も相まって、長めなので引用も多めに紹介しよう。

なおこれも効率重視でGoogle Lensを使用したので、気づく限りは修正したが、誤りも多いであろうことを先に断る。

 

芸術観の哲学と機械

それでもなお、現代の芸術観はわたしたちに、そもそも芸術は何かを表現しているのか?と問いかける。芸術は、むしろ政治や力や金に関わるものではないのか。これは芸術だ、という人々が芸術を定義する。

(中略)

展覧会という場に置かれたがために、本来機能的な品物である便器が、「芸術とは何か」という問についての言明になった。ジョン・ケージは、聴衆に四分三三秒間の沈黙に耳を澄まさせる。するとわたしたちは急に、音楽とは何かを自問し始める。外から入り込む音に耳を澄まして、いつもとは違うやり方でそれらを鑑賞するのである。

(中略)

鑑賞する側に不在と曖昧さの概念と折り合いをつけろと迫る。リヒターの「4900Farben」でさえ、じつは色付きの正方形の美学や技量が重要なわけではない。あれは、鑑賞する側の意図や偶然といった概念に挑む政治的な言明なのである。

それならコンピュータ・アートも、同じように政治的な問いかけを表しているのだろうか。今かりに、みなさんが冗談を聞いて笑ったとして、その後でその冗談を作ったのはアルゴリズムだと告げられたら、どのような違いが生まれるのか。皆さんが笑ったというだけで、十分なはずだ。それなのに、なぜ笑い以外の感情を引き起こされた場合には十分でなくなるのか。ある芸術作品を見て涙し、その後でその作品を作ったのがコンピュータだと告げられると、たいていの人はだまされたとか、担がれた、ごまかされたと感じるのではなかろうか。だがこうなると、わたしたちはほんとうにほかの人の心とつながっているのか、あるいは自分自身の心のまだ活用されていない領域を探っているだけなのかが問題になってくる。なおかつこれは、ほかの人の意識に関する難問でもあるわたしたちは、心が外に表出してくるものに頼るしかない。なぜなら、どこまでいっても永遠に、ほんとうの意味で他人の心のなかに入ることはできないのだから。

 

上記は私自身の美術館への態度へも問題提起を孕んでいて面白いと思った。

コンピュータの進化に伴って人間の文化的な態度もアップデートを迫られているのは、本書に統一された問いかけと警鐘だったようにも思われた。

あるいは現代アートにも近いというか、根底的に同質性を感じられる。それらもゴミや異質な材料を用いて、既存の芸術に疑問を投げかける。

要は手段や道具の違いにすぎず、そこに石油化学製品や写真が入り込んでいったのと同様で、コンピュータが特別視されることもないというところではないだろうか。

とはいえ、そこまでの議論の過程もまた文化的発展において不可欠であり、そこで人間的本質の新たな洞察が得られるかもしれない。むしろそういった正の側面に、前向きに注目すべきなのではないだろうか。

 

数学の証明の展望

数学者たちは、かつてそのようなバグでやけどを負っていた。一九九二年にオクスフォードの物理学者が、ひも理論の発見的アルゴリズムを用いて、高次元の帰化空間で確認しうる代数的構造の個数を予測したのだが、数学者たちは、なんだか疑わしいと思った。教学者たる自分たちに向かってそこまで抽象的な構造について語れるとは思えなかったのだ。やがてその予想が間違っていることが証明されたことから、数学者たちは自分たちの疑いが裏付けられたと考えた。ところがその証明の一部にはコンピュータが使われており、そのプログラムにバグがあることが判明したのである。間違えたのは物理学者ではなく、数学者のほうだった。プログラムのバグのせいで、正道を踏み外したのだ。数学者たちは数年後に、今度はコンピュータを使わずに物理学者の予想が正しいことを証明した。

こういった出来事のせいもあって、コンピュータを使ったせいで欠陥があるプログラムのうえに精密な建造物を建てることになるのではないか、という数学者の恐れに火がついた。そうはいっても正直な話、コンピュータより人間のほうが間違う確率は高い。眉をひそめられるのを覚悟でいえば、これまでにも、ギャップやミスが見過ごされてきた証明が多数あったはずなのだ。わたしにはちゃんとわかっている。なぜならわたし自身が、自分の発表した二つの証明に穴があることを、後になって発見したのだから。それらのギャップは埋めることができたが、査読者も編集者も、その穴に気づいていなかった。

 

ここでの話は以下の証明との関連性が深く、かつて見た動画が深く思い出された。証明の具体的内容も酷似しており、なおのことだ。

このニューロンの発光のアハ的な感覚は、人間的なものだと思っていたい。

 

youtu.be

 

Human vs. Machine

ともすれば、やはり機械の方が権威があるように思える。これは今日の労働の現場でも感じるフラストレーションの1つでもある。しかし思想的には今日の機械水準では危険というのが当座の答えだろう。これは血塗られた事故の歴史に学ぶところがある。

 

www.nicovideo.jp

bb-movie.jp

f:id:pytho:20220123204209j:plain

 

ここのところ自動車の自動運転も注目されている。しかし自動化で先を行っている航空機においても、その技術進展は途上であるため、完全自動運転には依然時間を要するだろうというのが、私の個人的な見方だ。しかも航空機においては、各種計器や空港のILSといった機械やシステムが整備されている。そうした補助を活用しても、複雑な離着陸の完全自動化は難しい。ゆえにこの状況を代入すれば、高速道路などの高規格道路の自動化は早くとも、複雑な事故要因を有す市街地や路地は困難だろう。

 

さて、話が逸れたが、もう少しだけ脱線すると、当座の機械との付き合い方としては、機械はあくまで補助ということだ。重要な局面では、人間の判断と責任が求められる。

これはビジネスも同様で、いくらデータ分析やマーケティングが自動化されたとしても、評価関数が作れようが人に回帰するだろう。専ら仮に汎用的な評価関数が得られれば、基本的なボトムラインが挙げられ、新たな知的生産に集中でき、文化は大きく一歩前進するだろうが。

 

 

音楽

次は音楽関連だ。1つ目のエミリーはアルゴリズムの名前だ。

 

どうやらわたしは心の片隅で、自分が数学者でなく作曲家だったらよかったのに、と思っているらしい。わたしにとって音楽は、常に数学の旅の道連れだった。数学の世界の未踏の領域に考えを巡らせるとき、わたしの脳は常にパターンや構造を探している。それもあってか、バッハやバルトークの楽曲が思考を後押ししてくれる。この二人は、数学者であるわたしが胸躍らせる構造とが大好きで、似た構造に魅せられていた。バッハはシンメトリーが大好きで、バルトークフィボナッチ数列に夢中だったのだ。作曲者はときには直線的に、その意味を知らずに数学的な構造に魅了されあるいはまた、自分の作品の枠組みになりそうな新たな数学的概念を見つけ出す。

作曲家のエミリー・ハワードと、どんな幾何学的構造が音楽的に面白そうかを話し合っていたわたしは、ふとあることを思いついた。双曲幾何学という数学の概略をエミリーに説明して、その代わりに作曲のレッスンをしてもらうというのはどうだろう。それはたしかに公平な取引だということになり、じきにわたしたちはコーヒーを飲みながら、第一回のレッスンを行うことになった。

真っ白な紙が新米の物書きにとって威圧的な虚無となるように、音符が一つもない五線譜を見たわたしはパニックに陥った。エミリーは落ち着き払って、どんな作曲家でも、何らかの枠組み―というかひと揃いの規則から出発して作品を形作っていくしかないといった。だからわたしたちは、中世の対位法の規則から始めましょう。中世の対位法では、プロレショカノンというものを使って一筋の調べを作り、それを多声の作品に展開していく。まずは一つの声が歌う単純なリズムから始めて、次に二つ目の声が同じリズムを半分のスピードで歌い、三つ目の声が二倍のスピードで歌う。こうすると、三つの声がリズムは異なるが強く関係した形で歌うようになる。この技法による対位法の作品を聴くと、脳は三つの声を結ぶパターンの存在に気がつく。

わたしには次のような宿題が出された。単純なリズムを作って、それを中世のプロレーションの伝統を用いて弦楽三重奏に発展させること。実行するのは容易で、数式で表すのも簡単だ。x+2x+1/2xというのがその式である。こうして自分の作った作品が姿を現したとき、わたしはまるで庭師になったような気がした。始まりは、まったくのゼロから生み出した小さなリズムの断片だった。この断片は、いわば五線譜に投げ込む種のようなもので、次にエミリーに教わったアルゴリズムを使うと、この種に突然変異を起こさせ、変化させて、育てることができる。

 

コープのアルゴリズムでは、作品を小分けにして特徴を取り出して各作曲家のデータベースを作り終えると、次にコープが「再結合」と呼ぶものに取りかかる。複雑な構造を構成している要素を認識することと、それらの断片から新たな合成物を構築する方法を見つけ出すことは、まったく別だ。モーツァルトのサイコロ遊びのように、ランダムな過程を使うという手もあったが、さまざまな断片をランダムに組み合わせただけで、作曲家が曲中で作り上げた緊張と弛緩を反映できるとは思えない。そこでコープは、そのプログラムにもうつ手順を追加することにした。各断片のヒートマップ、色分け図を作ったのだ。

作曲家は、さまざまな要素を組み立ててフレーズと呼ばれる文法を作ることが多い。それらのフレーズには往々にしてパターンがあるので、コープはそれらを抽出し、SPEACという略記であらわすことにした。データベースが辞書だとすると、SPEACは作家が辞書に載っている単語を用いて文を作る、書き方にあたる。SPEACが確認するのは、次に挙げる五つのフレーズの基本的構成要素である。

(S)言明Statement:「反復以上の何ものをも期待されず「あるがままに』存在している」フレーズ

(P)準備Preparation:これらは「言明の意味や他の識別子を、その前に立つことで自立せ

ずに変える」

(E)拡張Extension:言明を長くする方法

(A)先行するものAnrecedent「有意義な関わりをもたらし決断を要求する」フレーズ

(C)結果Consequent:先行物の決着をつけるもの。「結果はSに見られるのと同じ和音や旋律の断片であることが多い。だがそれらは別の含みを持っている」

クラシックの作曲家の多くが、この文法を用いている。無意識に使う場合もあるが、修業の一環として習う場合も多い。ある種の和音は聴き手に、さらにその先があって決着をつける必要がありそうな感じを与える。それに続く和音次第で、決着がついたようにも、解決の必要がさらに高まったようにも感じさせることができるのだ。コープがSPEACを使って作品の起伏を分析してみると、どの作曲家にも独自の文法があることがわかった。ここで紹介するのは、コープによるスクリャービンピアノ曲の分析である。

コープはこの基本的な文法を確立すると、次にある種の音程を使うことで生じる緊張を測った。オクターブや完全五度の音程では、大きな緊張は生まれない。この事実は数学的にも裏付けることができて、実際これらの音程の周波数の比は、オクターブなら12完全五度なら2:3という

 

音楽と数学の結びつきといえば、やはり中世の欧州の学術分野が思い出される。学問分野として存在していたことは有名だが、そこでの関連性はあまり議論や紹介がされない印象がある。そこで偉人の理論が語られているのも面白いが、この詳細は別途音楽理論に譲ろう。

それよりも俄然、普遍的な形式の数学的考察が面白い。確かにパッヘルベルに代表されるカノン形式は言われれば、その通りだ。あるいはそうしたマクロ的な構造のみならず、そもそもの音が周波数的にキリのいいものが心地よく聞こえる。

これらは作曲家が訓練すれば得られるセンスで、これまでのヒューマンコードの蓄積の歴史にも学べる。ただ理論的に整理できる以上、機械化も比較的容易だろう。

しかし、、、

 

youtu.be

 

コンテクスト

小説家たちがすぐに職を失うことはまずあり得ない、とわたしは思っている。たぶんボットニックは、作家にはスタイルがある、という事実を捉えているだけなのだ。しかし作家のスタイルは、文の組み立て方を見さえすればわかる。しかるにボットニックはそれしか、つまり局地的な文の展開しか捉えておらず、改めて大局的な物語の構造を作ろうとはしない。ジャズのコンティニュエイターと同じで、説得力のあるジャズを二、三フレーズ作ることはできても、どこに向かっているかがわからないから、けっきょく退屈なものになってしまう。最近ちょくちょく思うのだが、ひょっとするとネットフリックスやアマゾン・プライムでは既にアルゴリズムが稼働しているのかもしれない。ついつい最後まで見てしまうのだが、結局何も語っていない台本があんなに乱造されているのだから。

 

とはいえ、難しい問題が上記のようなものだ。これは文学のみならず音楽にも当てはまるだろう。音楽に関しては、24時間統一されたコンセプトを構成したり、即興ジャズセッションに応えられたことも紹介されており、矛盾もある。

 

ただ、そのマクロな構造において、ストーリや感情を込めていくということは、現状ではAIの変数に組み込まれていない。もちろん先述の現代アートと類似するように、作られたものから本質やストーリを模索するという方向性もあるだろうが、ましてや昨今のPopsのように歌詞、すなわち自然言語を混ぜるともなれば、たちまち壁にぶち当たる。

さらにAIに特別な問題として、長期的な構造に関して、コンセプト、作者ごとに教師データが少ないという問題もある。

 

コラム『告発』:ケンブリッジ・アナリティカと個人情報保護・プライバシー

ここの前半を読んでいて、ちょうどケンブリッジ・アナリティカに関する本、『告発』が思い出されたが、案の定言及されていた。

 

もちろん、アルゴリズムがニュースを伝えるという状況には不気味なところもある。実際、物語が強力な政治的ツールになることは、歴史が繰り返し示している。最近の研究によると、いくらデータや証拠を挙げても、人々の考えはほとんど変わらない。それらのデータや証拠が織り上げられて物語になったときに、はじめて相手を説得し、考えを変えさせる力が生まれるのだ。自分の子どもにワクチンを打つのは危険だと確信している人に、ワクチンには病気の蔓延を食い止める力があるという統計を見せたとしても、まずもって考えを変えようとはしない。ところが、その人に誰かがはしかや疱瘡で倒れたという話をして、そこにデータを絡めれば、その人の考えを変えられる可能性が出てくる。ジョージ・モンビオ(英国の環境問題活動)が『残骸から』で述べているように、家でコラムニスト「物語に取って代われるのは物語だけ」なのだ。

物語を使えば意見を変えられる、という事実をとことん利用してきたのが、ケンブリッジ・アナリティカをはじめとする企業である。この会社は、「これがあなたのデジタルライフです」というアプリでフェイスブックの利用者八七〇〇万人の個人情報を集め、それに基づいて心理的なプロファイルを描き、さらにそれをニュース記事とマッチさせて、人々の投票行動に影響を及ぼそうとした。この会社のアルゴリズムは、ランダムに物語を割り振るところからはじめて、しだいにどの物語がユーザーのクリックを誘うのかを学習していった。

 

また脱線してしまうが、この本も非常に面白かった。ただこれも長くて、図書館の期限内に読みきれず、2/3くらい読んで返却してしまった。

今日におけるマーケティングの施策と、それに対する個人情報保護の線引きを把握するためにもビジネス必読書だ。

もしToC産業でそこまでのデータを集められておらず、自身や弊社に関係ないと思うのであれば、むしろそれだけデータをとれていない現状が、市場環境として後進的にすぎ、ヤバいとも思われる。それだけデータの威力は強く、今世紀の石油とも言われるが、『告発』の中で告発されるように、その力加減を誤ってはいけない。ドラッグにも近いような魔力がある。

 

さらにこの本で興味深かったのは、やはりそういうリテラシ層は革新系の左派に多かったものの、そこをレッドオーシャンと捉え、結果的にトランプを筆頭とした保守派への強力な武器になったということだ。

ああ、書いていて残りの部分も読みたくなってきた。

あるいは左派のデータサイエンティストやエンジニアが、高等教育の機会の多さに比例して多いのと同様に、その利用者もそちらに偏っており、そこでポリシを懐疑していた。それに対し、比較的リテラシの低い右派は、深いデータ提供もさせられやすかった、といった構図の仮説もありそうだ。

 

コロナと反ワクチンの成り立ち

そして、これは今日のコロナの問題にも関連するわけだ。アメリカでは既に大統領選で重大な局面を迎えていた。日本でもエセ科学陰謀論は蔓延っていたが、実害はあまり多くなかった。

しかしコロナワクチンにより、風向きが変わったように思える。反ワクチンはマイノリティであるものの、その問題や影響は案外深い。

 

匿名の医者や知識人が正当性を説くが、やはりそこでは正論は刺さらない。反ワクチンの成り行きとなるストーリやペインを把握し、氷解させていくアプローチが重要なのだろう。言葉は悪いが、そもそも初等教育までの人らに、論文や数値を示しても意味はない。

残念ながら理屈より感情なのだ。

 

ケンブリッジ・アナリティカは悪用と見られるが、その威力は証明された。

要は使いようなのだ。

ゆえに正当な使い方の模索が必要だ。あるいは敵対的に陰謀論の防止の模索も必要だろう。悪用時の特効薬としても予防として求められるから。

ただ、そうすると、使用者の正義が反映されてしまい、何を持って機械への入力値を人間が決めるか、あるいは機械が正義を判断できるのかという問題もある。そもそも現状は、各派が自身の正義に没頭するあまり、生産的議論がないので……

 

現状もワクチンは強制されておらず、それは人権や選択の自由に基づくものだろう。これ自体は否定できない。基本的にすべきとはいえ、あくまで99%の正義であり100%ではないから。

ただこれに対するスタンスは難しいところだ。というのも、こうした行政権の抑止があっても、民間企業には従業員に実質的に強制するケースが多いからだ。逆に家族の接種を妨害する場合もあるわけだが。

こうした部分は時間がかかるものの、社会制度の検討として、慎重に司法で深く議論されるべきだろう。だから、誰かがきっちり議論していただきたい。もっともこういう他人事の態度は、自分でも褒められたものではないと思うが。

この問題は目下も社会的関心も高く深く議論されているだろうし、脱線がすぎるのでこのあたりにしておこう。

ミレニアル世代やZ世代を惹きつけたいインスタ風アプリSupernovaはSNS大手の「倫理的オルタナティブ」になれるか | TechCrunch Japan

 

まとめとレンブラント

とはいえ、本書の感想はそれぞれにまとめたとおりで、各章が面白かったことは改めて言うまでもないし、本書を読むにあたっての心構えも先に書いた。

そういえば肝心の題名のレンブラントに関するところや、前半での直近のAIの歴史については特段取り上げなかった。

これは個人的に関心が薄かったというところもあるし、特に後者、各人で読んで噛み砕いてもらいたい。

ただ最後に言及するなら、絵の再現はかなりいい線にいっているとのことだ。これは画家ごとの教師データに基づくようなところもそうだし、下記のような普遍的なものにしても。そんなわけで批評家も騙してしまい、立つ瀬がなくなってきたりしていたりだとか。

 

知的生産の技術

 

本記事で冒頭に述べた理由の2つ目は、本書の影響だ。

読書は一般的に消費行為だが、これをこのようにメモなどでまとめたり整理することが生産的であり、身になると本書は説く。

小学校の読書カード然り、多読は知識の多くの吸収として評価されるべきだが、ただ読んで内容が抜けてしまうようでは意味がない。だから私は冊数至上主義のあの制度が嫌いだった。一見、理解し落とし込めているようでも、それは読んだ当時の印象であり、1年後の自分がどの程度覚えているかの保証はない。それならば、繰り返しまた読めばいいとの意見もあるだろうし、それは正しいが、多様な趣味を取り込むにはそれでは効率が落ちてしまう。

 

そこで自身の興味があるトピックをまとめることが重要だ。これは何も読書に限らない。というは、むしろ日常での何気ない出来事の記録の重要性が焦点であり要旨だ。ただし具体的な方法が役立つかは微妙だ。紹介される方法は洗練されているが、PCやインターネット普及以前である。そのためその方法とは、メモと単語帳の中間のようなカードへの記録方法が主だ。

逆説的に彼が現代に生き返ったとして、どの方法を是とするかは非常に興味深い。私のようにブログに記録して公開する方法もあれば、エクセルやSQL形式のDBを用いる人もいるし、Twitterもそういった側面がある。そもそも検索という行為が、アルゴリズムには非常に好相性である。実際にこの執筆でも、自ブログの検索機能による過去記事との関連性の追加を意識している。

クローズドなメモアプリの類も様々だし、プログラミングを習えば自分好みに自作やカスタマイズもできる。

 

くりかえしていうが、今日は情報の時代である。社会としても、この情報の洪水にどう対処するかということについて、さまざまな対策がかんがえられつつある。個人としても、どのようなことが必要なのか、時代とともにくりかえし検討してみることが必要であろう。

よみかき、計算ができる、というのは近代市民としてあたりまえのことである。現代では、それだけではすまなくなってきているのである。たとえば、電話帳のようなものでも、単に字がよめるというだけでは、つかいこなせないものである。百科事典とか、図書館とか、そんなものも、よみ・かきだけでは利用できない。書類の整理、検討、発表というようなことになると、これはかなりの訓練がいる。今日では、情報の検索、処理、生産、展開についての技術が、個人の基礎的素養として、たいせつなものになりつつあるのではないか。

ややさきばしったいいかたになるかもしれないが、わたしは、たとえばコンピューターのプログラムのかきかたなどが、個人としてのもっとも基礎的な技能となる日が、意外にはやくくるのではないかとかんがえている。すでにアメリカでは、初等教育においてコンピューター用めの言語FORTRANをおしえることがはじまったようだ。社会が、いままでのように人間だけでなりたっているものではなくなって、人間と機械とが緊密にむすびあった体系という意味で、いわゆるマン・マシン・システムの展開へすすむことが必至であるとするならば、

 

う~ん、先見の明に感心と脱帽だ。これ(米のFortran初等教育)を最近になって文部科学省で議論し、ようやく導入し始めたぐらいなのだから、そりゃあFANG(MAMAA)やBATXは生まれないわけである。

 

FANG, FAANG, and MAMAA
FANG was an acronym coined by Jim Cramer, the television host of CNBC's Mad Money, in 2013 to refer to Facebook, Amazon, Netflix, and Google. Cramer called these companies "totally dominant in their markets".[34] Cramer considered that the four companies were poised "to really take a bite out of" the bear market, giving double meaning to the acronym, according to Cramer's colleague at RealMoney.com, Bob Lang.[34][35][36]

Cramer expanded FANG to FAANG in 2017, adding Apple to the other four companies due to its revenues placing it as a potential Fortune 50 company.[37] Following Facebook, Inc.'s name change to Meta Platforms Inc. in October 2021, Cramer suggested replacing FAANG with MAMAA; this included replacing Netflix with Microsoft among the five companies represented as Netflix's valuation had not kept up with the other companies included in his acronym; with Microsoft, these new five companies each had market caps of at least $900 billion compared to Netflix's $310 billion at the time of Meta's rebranding.[20]

Big Tech - Wikipedia

 

そして理由に戻るが、本文中で読んだ内容の記録は、記憶の風化という経験則から早いに越したことがないとあった。読んだ当時の感想は、実は私もクローズドなところにざっくりメモしているが、それは体系的・有機的でない。これを昇華するためにも、このブログ執筆という機会を重視している。しかも私はガサツなので、そのメモを適当に行いがちなので、なおのこと早いに越したことがないのだ。この行為は、彼にすれば、あまり褒められたものではないが。

 

こういうのは個人でも色々研究されているようで、例えば本の付せんだけに着目しても、賛否や具体的方法など多様だ。結局は好みの問題なので好きにすればいいと思うが、案外にオリジナルな方法というのは先人に試されがちなので、そうした失敗がないか調べ、洗練された常道を使った方が無難だろうというのが、私の基本的なスタンスだ。

 

あとタイトルに読書感想文とつけた。これに関連して、こうした原稿はずっと400字詰め原稿用紙が常道だ。しかし筆者は書きやすさの観点から否定する。そもそもとして、全般的に文学からの流入が多すぎ、一般大衆向けでないものが多いと主張する。これはたしかに頷ける。同様に大学でしばしば使われるレポート用紙も否定する。基本的には自由に書ける白紙や、罫線の薄いものを筆者は重んじている。要は情報が書式に縛られてしまうわけだ。

そういえば、高専の低学年時に多く課された測量の手書きレポートは地獄だった。原本がちょうどあるので、今後スキャンして公開しようか。今となっては恥ずかしいものだらけだが、反面教師として、本書の議論とも絡めれば、情報や文献の整理に関して、さらなる新たな洞察も期待できるかもしれない。

こうしたレポートを否定する科学者であるがゆえに、講義の先生として憧れる。残念ながら高専低学年のときの担当教員らは、そうした観点が弱かったか保守的だったと言える。

 

彼が昨今の神エクセルや方眼紙を見たら、卒倒してしまうだろう。また先進的と見られている弊社でも、そのツールを十全に使いこなせているとはいえず、業務に無駄が多いから、そういう考え直すきっかけにもなったと思う。

Long Time No Seen TDS

5年ぶりくらいにディズニーに行った。

思い返せば学生時代は暇ながらも絶えない受験に研究で案外忙殺されタイミングを失っていた。

コロナもほどほどに落ち着いたようにも見え、新卒研修からの配属先も落ち着いてきた12月のクリスマス前のタイミングだった。

 

おじさんになり高額になったこともあり、遅めの入りのチケットで。

レストラン予約は事前、当日ともにいい感じにど忘れしてしまったが、結果オーライだった。

 

パークはタイトルからも分かる通りディズニーシー。

 

中学までは家族を始め、友人とも年1回以上は訪れるくらいにヘビーなディズニー家族だったが、思春期の気持ち的なところと埼玉から群馬への地理的なところで、距離が空いていた。

そのため王道アトラクションは経験済みだったが、しばらくの間にソアリンやニモなど変化も大きかったことには、再訪してから驚いた。

ソアリンはせっかくだったので気がかりだったこともあり、10時半の入場とともにアプリでパスを取得した。

 

そう、そういえば、このシステムもコロナ禍に合わせてだったが、急速にモダンなDXが進んでいて驚いた。

従来は開演直後に抑止がありつつもガンダしていて危なかったので、ここにも間接的にコロナの正の側面が出たところか。

 

とはいえ、負の側面は甚大で、チケットがそもそも取りにくいほか、高額になり、その割にはショーがしょぼかった。

前者については園内が比較的空いているという点で相殺できているし、社会人の立場からすれば、どちらかといえばありがたいが、庶民的感覚も抜けきらない人間的矛盾もある。

後者は結構残念だった。

幼い頃は絶叫系に代表されるアトラクションが大好きで、いわば脳死周回といった具合だった。

しかし、考え直せば、ここまでショーに凝った遊園地もないので、そちらに比重を置きたい心境の変化があった。

 

昼にクリスマスのサンタが出てくるものを見たが、船一隻に音楽が流れるだけで、かつての威光は失われていた。

これは費用圧縮のため仕方ない部分もあろうが。。

昔は水上バイクや水の噴出、船も複数隻、凧や上陸といった工夫もあった記憶で、それを期待していただけにギャップが大きかった。

この点はランドのエレクトリカルパレードの安定感がいいのかもしれない。

 

夜も花火が両パークの間に上がっているようで。。

 

しかし肝心のアトラクションはDXの甲斐あってか、待ち時間が大幅に改善され、全体的なQOLは上がった。

ソアリンもギリギリながら遅めの入場で確保できた。

総じて、悲しいかな大人と子供の頃を入れ替えたいところだった。

 

ソアリンはまさしくマイブームバズワードメタバースそのものではなかろうか。

世界旅行を視覚的に回遊飛行体験できた。

強いて言えば、匂いの工夫はいいものの、聴覚的な工夫はもっと凝らせられそうにも感じた。

 

また酒が緩和されたのもよかった。

とはいえ全般的にこれらの店は待ち行列が長く、実際上は呑兵衛になるのは難しい。

長い列を敬遠して結局外では酒を一杯しか飲まなかった。

味はともかく見た目的には悪くなく、インスタ映え的なところのマーケ対策はバッチリか。

 

酒に関しては、やはり腰を落ち着けてがいい。

予約は不戦敗だったが、結局当日にマゼランズに入れた。

メニューがコース固定だったものの、チーズ主体で味の濃い構成で、ワインセットの赤が特に合っていた。

個人的な印象としては、比較的大衆向けそうなところでありながら、渋みが強めに感じられて好みの味だった。

とはいえ、ワインは好きながら、あまり飲む機会がないので、まったくの的外れの感想かもしれないが。

 

とにかくコースでは前菜に出てきたチーズのセリーヌが逸品だった。

今月は世界の郷土料理的なものがテーマのようで、南欧方面のようなのでさらに気を引かれるが、鬼リピできるほど時間もない。。

南欧料理は都内のいい店を探して代えることとしよう。

もちろんメインの肉もジューシで、味変できるソース構成もよかった。

 

あとはアトラクションとして、ニモが初めてだった。

個人的にはストームライダーの方が好みだが、幅広い層を受け入れるためにも妥当な判断に思える。

 

それからゴンドラは小学生以来くらいだった。

特に中盤の開けたところは寒かった。

ジャングルクルーズのような小粋なトークを正直期待していたが、割と漕ぐのに忙しいようで定型文的なもの以上のものはない印象だったのが、やや残念だった。

そういえば、某インターンでこのアトラクションでバイトをしている人がいて、その人は割と普通に社交的だったが、その実バイトでの要素はどうだったのか気になる。

そもそもこういう割と属人的なものは、どの程度属人的で裁量が任されているのだろうか。

どうしてもビジネス的に理屈的に見てしまっていたが、これはこれで面白いし、子供の頃とは違った視点で見れている。

属人性を許せば全体的なパフォーマンス、満足度は上がりそうだが、バラツキも大きくなるし、船主の負担も地味に大きい。

コロナの閉塞的な空気の中で、喋りすぎることも敬遠気味な中で、どちらが最適解で良しとするかは答えがないのだろう。

 

長くなったが以下フォトギャリー。

 

f:id:pytho:20211219183627j:plain

f:id:pytho:20211219183635j:plain

f:id:pytho:20211219183642j:plain

f:id:pytho:20211219183650j:plain

f:id:pytho:20211219183715j:plain

f:id:pytho:20211219183722j:plain

f:id:pytho:20211219183730j:plain

f:id:pytho:20211219183738j:plain

f:id:pytho:20211219183750j:plain

f:id:pytho:20211219183758j:plain