« 2023年3月 | トップページ | 2023年5月 »

2023/04/15

AIやらGoogleに宿題させるって、意味わかんない

どのくらいバカげた話かと言えば、
「毎日2km走ってたんだけど、バイク手に入ったからバイクで走ることにした。」
ってくらいイミフな話。
2km走ってたって言うのは基礎体力作りのために走ってたんでしょう。
機械(バイク)でそれができるようになったからそれを使うって意味わかんない、ってこと。

宿題っていろんな勉強・学習行為のひとつでしょう。学習機会と言ってもいい。それを自ら放棄してどうすんの、って話。

別にAI(ChatGPT)使おうが、Google使おうが、SNSで誰かに依頼しようが、親に手伝わせようが、友達のを写させてもらおうが、まあ、昔っからある話に新しい手段が増えただけ。そもそも自分でやらなきゃ意味なし。宿題というせっかくの学習機会を自ら捨てているってこと。

世間も「宿題の崩壊」とか「AIの使用制限」がどうこうとうか、私にはバカじゃないのとしか思えない。

 

そもそも勉強・学習ということを行う意味というのを根本から見失っているのが問題なんでしょうね。

義務教育って、勘違いしている人がたまにいるけど、子供が教育を受けなきゃいけない、それが義務じゃあない。
親やら社会(国)が子供(定められた年齢の国民)に教育を受けさせる場を作るのが義務なんだから。

 

ましてや大学生が大学の課題レポートをAIに書かせて提出なんて何やってんの?って思う。
せっかくレポートを書く練習をする機会をもらっているのに(しかも採点してくれるのを)自ら放棄しているなんて意味分からない。
まあ、高い金払って大学に在籍しているのに、ろくに授業出席しないとか意味不明の人がたくさんいるのは今始まったことじゃないけど。
昔から「過去レポ」って過去に先輩が書いた”模範的なレポート”を丸写ししていた人達もいたけど、まあ、それと大差ないレベル。
だってAIのレポートを丸写ししているだけなんだから。別にAIがどうのこうのというレベルの話じゃあない。

「禁止」とか言ってくれる大学はまだ真面目君な大学だよね。別に大学(教授や講師陣)からしてみればAIだろうが誰かのレポパクろうがどうでもいいって話で、「ああ、これって多分AIに書かせたよね」ってとっくに看破されてるんだけど(プロをなめちゃダメだよ)、「ま、いっか」でスルーしている大学だってたくさんあるでしょう。まあ看破云々はどうでも良くて「これ、平均点以上だけどつまんないレポートだよね」っていう評価になる。
ぶっちゃけ大学なんてそういう学生が大勢で(特に低ランク大学とかはね)からお金だけむしり取って卒業させてあげればいいだけなんだから。「べつに後で困るのはそいつなんだし」「別に俺ら困んないし」って思っているだけ。

 

AIに仕事を奪われるって話も大差ない。
どの職種が。じゃない。どういう仕事のやりかたをやってるかが。が肝要。

よく言われるのはAI(ChatGPTとかChatBot含む)はこれから「優秀な秘書・アシスタントになり得る」って話。
ChatGPTなんか、月2000円で雇ったと考えれば超コスパのいいアシスタントって言える、というのは使っている人が言っている。
(ネットで人間探してメールで「校正して」って頼むよりChatGPTに校正させた方が確実らしい。そりゃそうだ。)

しかしそれはあくまでアシスタントでしかない。アシスタントに元ネタを与えたり、指示をするのが「人間」の仕事。
例えばChatGPTに書籍を書かせることもできる、っていうのはよく言われている話だけど、今までだって当人が書いていないで出版社の用意した人が書いている例なんかいくらでもある。まあ、著者の名前借りっていうのは悪質事例だけど、何を書くか、情報集め(取材)、全体の構成決めなどは著者名の人がやって、実際の文章は誰かに書かせたということはよくある話のようだ。それと同じ話。

別の事例をいえば、漫画家という職種は分かりやすいかもしれない。
優秀なアシスタントさんがいると絵の質も安定するし原稿落ちも起きない。場合によっては作品の見た目の質も上がる。
しかしそれが「面白い漫画」になるかはまったく別問題である。
そもそもの発想、設定はもちろんだし、ネーム(シナリオ)次第だし、コマ割りや進行も大きく左右する。絵にしても重要な絵の部分、人物(特に顔=表情)は本人が書くのが当たり前になっている。
あとの補助的なところは指示に従いアシスタントさんが行い仕上げる。もちろん最終チェックは漫画家さん当人が行う。

アシスタントを何人も雇っている事例も多いことからも実際の作業量は作者本人の何倍もの量となっている。
しかし「作品の本質に関わるところを決めている」からこそ「作者」を名乗れるわけである。

つまり、アシスタント的な仕事、は確実にどんどんAIに取って変わられていく。
銀行の窓口なんてよく言われるし、いまもどんどんATMに誘導している(機械化・IT化が進んでいる)けど、どこかで音声ChatBotの”ATM”が出てきて完全置換えが進むのは当然の成り行きだろう。しかしどこまでいっても最後のトラブル対応のために「責任者」は必ず置かれる。窓口が人間がやっていたって「責任者」は置いていたのと同じ話だ。
つまり定型的で従来事例やルールに則って実行員となる「窓口受付」は置き換わり、自ら考え、今まで事例がなかったような判断も求められる「責任者」は最後まで残るという話だ。

 

話を戻すと、自ら宿題を行う、というのはこの「責任者」となれる機会へと繋がっている。自ら何かを調べ、考えるという初歩的な態度・行いが必要なのである。
それを放棄しAIに丸投げするような人間は、所詮は「窓口受付」しかできない人間になってしまう。
今まではそういう人達も「すくい上げる職種」があったから給料がもらえたが、どんどんそういう求人自体が少なくなっていく。

 

さて、ここで題名自体の主旨を条件付きで全否定する。
AIはアシスタント。今までも、これからも、なるべきはそれに指示を出せる人間。
つまり、これからはAIに的確に指示を出せる人間が必要となっていくのは必然。

レポートをAIに書かせるのはむしろ推奨すべきこと。むしろ「レポートはAIに書かせること」と設定してもいいぐらいの話。
きちんとレポートの意図、全体の構想・構成を考えAIに指示する。データなどの内容を吟味してAIに適切に与える。その上でレポートをAIに書かせ、当然しっかり査読をする。それが前提。
本当の意味で「AIに書かせる」ということは実はIT化が難しいとされるのと同様に、普通にレポートを書くよりもむしろ難易度が高い話なのである(笑)。
当然のことながら、プロの人達が「ChatGPTを仕事に活用している」というのはこれと同様のことをしているだけなのだ。彼らはプロなのでこれからもずっとやっていくし慣れを含め長期的に楽になるから活用しているだけのことである。

いうまでもないが、AIに書かせればいいとか言う理由でいわゆる「勉強」が要らなくなるわけがない。むしろ些末なところに囚われず大局観をもってしっかり勉強しなければならない。「考える」「吟味する」というのはいわゆる基礎的な勉強(日常の授業)を踏まえた上で、さらにひとつ以上ステージの上がったところにある。なかなか学校で教えづらいところでもあるし、日本の授業カリキュラムでは習得しづらい。
なんにせよ、不要になるどころか、むしろ基礎的なところに抜けがあるとステージがあがりづらい。些末な暗記事項に欠落があってもかまわないが、全体の考えの繋がり(理解)が弱いとダメだ。少なくとも暗記だけでしのぐような勉強のやり方ではダメである。

それができないのであれば、結局「他人のレポートを借りパクして写しただけ」と同じである。
最後に、借りパクレポートなんかバレバレになっているのと同様に、AIに丸投げして書かせたレポートなんか、AIを使えば簡単に看破される。至極当然である。そんなことにも気がつかないのは阿呆である。

| | コメント (0)

« 2023年3月 | トップページ | 2023年5月 »