Se você ainda não leu, leia. O final evoca emoções muito fortes. Para mim, eles foram agravados pelo fato de que estou relativamente profissionalmente envolvido em IA, geração de texto e o problema de significados - então eu pensei que poderia facilmente reconhecer texto gerado por uma máquina ...
Sim, sim, comprei. O texto do artigo "GPT-3 da OpenAI pode ser a melhor coisa desde o Bitcoin" foi (possivelmente) criado pela AI, mas não o vi, apesar de, em geral, fazer profissionalmente e conhecer as técnicas básicas utilizadas na máquina gerando texto.
Depois que meu primeiro choque leve adormeceu, gostaria de compartilhar uma série de considerações.
Não é um texto de máquina, mas um texto processado por humanos
Talvez a primeira reação ao texto tenha sido a negação, relutância em aceitar que este texto foi feito por uma máquina. Meu cérebro começou em um ritmo frenético para encontrar um argumento adequado para isso. De modo geral, eu mesmo os considero bastante fracos, mas ainda quero citá-los:
- Não se sabe quantos por cento do texto e como o autor o editou . Existem exemplos de texto que parece ser feito por uma máquina, mas corrigido por uma pessoa - por exemplo, era uma vez uma história sobre um roteiro de filme / livro feito por IA. A sutileza estava sempre nos detalhes - se você ler a crítica, sempre será dito algo no espírito de que a IA fez o início da história e então um grupo de escritores a finalizou . Sempre atribuí a qualidade do resultado ao fato de que os escritores simplesmente trouxeram algum sentido próprio na finalização, já que você pode encontrar algo em pinturas abstratas com um forte desejo . Talvez esse argumento não funcione aqui, pois, segundo garantias do autor, ele apenas corrigiu a formatação do texto.
- . , , . , « ?» . , , .
- . , , . GPT-2, , - . - , , , . , «» GPT-3 , …
No entanto, também estou disposto a admitir que esses argumentos são bastante fracos, e a máquina pode, de fato, agora criar textos noticiosos relativamente longos semelhantes aos humanos.
Coloquei minha xícara de chá de lado e pensei: “O que isso significa? Que lição posso aprender com esta história? Posso agora dar pelo menos alguns conselhos sobre a capacidade de distinguir textos bons de maus ou sem sentido? "
Instituto de reputação e verificação de fatos
Voltando às emoções que surgiram no processo de leitura, lembrei que o fragmento do artigo, a partir do qual comecei a "acreditar" no que estava acontecendo, era uma descrição do experimento no fórum bitcointalk. O início do artigo não me incomodou - é dedicado aos fatos sobre a criação da GPT-3, e já estou acostumado com o fato de que tais fatos nada dizem sobre o autor ou sua compreensão do assunto, uma vez que podem ser emprestados de qualquer lugar.
Mas a descrição do experimento foi interessante. Na verdade, ele criou o "conteúdo" do artigo - as regras de postagem, a reação de outras pessoas do fórum ...
... e como resultado, entendemos que não houve experimento.
Isso me levou a pensamentos interessantes. Escrevi há muito tempo sobre a modelagem de ciclos de negócios com base no crescimento da confiança... O resultado final é que o crescimento ocorre apenas enquanto as obrigações das partes são cumpridas - ou, mais simplesmente, se eu disser "Enviarei este produto para você em uma semana ao preço de X", você confia em mim e eu realmente o farei. Tudo é baseado unicamente na confiança - se você não confiar em mim, ou eu vou te enganar, nós, é claro, podemos tentar resolver o caso através do tribunal, mas isso será acompanhado de custos OLÁ! Imagine como seria se toda compra de iogurte em uma loja fosse acompanhada de uma séria possibilidade de litígio ...
E aí chegamos, na minha opinião, um grave problema do mundo moderno. Em certo sentido, quase não temos instituições de reputação sobrando em relação a palavras e textos, o que significa que não sabemos realmente em quem podemos confiar .
Imagine que um representante de uma operadora de celular ligue para você. Ou um banco. Com uma oferta nova, única e vantajosa para você. Você acredita que é benéfico para você?
A mídia pode acidentalmente colocar a foto “errada”. Eles podem considerar a situação unilateralmente. Publique um artigo provocativo na página principal com uma pequena inscrição na parte inferior “Esta é a coluna do autor. A opinião do autor pode não coincidir com a opinião do conselho editorial. ” Eles podem se referir a um professor desconhecido do Instituto Mundial na cidade de Kukuevo com as palavras "Cientistas descobriram ..." E eles não receberão nada por isso. No mínimo, eles reclamarão da falta de verificação dos fatos e talvez postem uma réplica em um canto em que você nunca a encontrará depois de alguns meses.
Mesmo a presença de pessoas "competentes" não ajuda. Talvez, eu me lembre melhor da história da empresa Theranos ( em Habré ), que prometeu uma revolução quase médica e montou um conselho de administração impressionante (o conselho de administração da empresa incluía personalidades famosas como ex-secretários de estado dos EUA Henry Kissinger e George Schultz). Parecia a todos que essas pessoas não podiam estar erradas - mas, na verdade, elas também dependiam de garantias verbais, enquanto a tecnologia, de fato, não funcionava. Não pense que você pode confiar em algo, mesmo que tenha investido $ 700 milhões lá.
Infelizmente, a questão é que agora não podemos mais confiar na opinião de ninguém. A reputação custa muito pouco e é alegremente trocada por dinheiro. Na verdade, a nossa família e entes queridos continuam a ser o único bom espaço de confiança - e, felizmente, as ideias do marketing de rede (Oriflame, etc.), explorando a confiança pessoal, mais ou menos desapareceram das nossas vidas.
Mas voltando ao artigo ... tirei duas conclusões para mim:
Suavidade de texto e diálogo
Estou montando minha coleção de textos gerados e seus geradores. Mas não estou muito interessado em discutir como os textos e falsificações gerados afetarão a sociedade - embora este tópico possa ser bem pago. Para mim, cada exemplo do texto gerado é uma pergunta: "Que parte do pensamento humano fomos capazes de formalizar?" E "o que ficou desconhecido e ainda é prerrogativa de uma pessoa?"
A GPT-3 e as redes neurais modernas, uma vez que treinam em textos, e não nos significados incluídos nesses textos, são descendentes distantes da geração de textos devido a N-gramas ou redes de Markov, que são presumivelmente usadas em Yandex.Abstracts . Se você olhar para os princípios básicos e exemplos dos textos gerados, você pode introduzir várias regras importantes:
- . , . (.) 4-7 , GPT-3, , , . , – , , .
- . , , , . - , «, » « Apple, , ». , . !
- . « , , » « , » .
Além disso, gostaria de falar separadamente sobre o diálogo com a IA. Em particular, qualquer professor sabe que nada pode ser dito sobre seu conhecimento a partir do resumo fornecido pelo aluno. Mas se você falar com ele por 5 a 10 minutos, será fácil entender se ele está “atrapalhado” ou não.
No meu artigo sobre chatbots, menciono que o principal problema da IA agora é levar em consideração o contexto do diálogo e a compreensão do interlocutor.... É fácil imaginar uma IA que responde bem a uma frase específica - mas parece uma pessoa que ouviu um pouco de tudo, mas não entende a essência. Entre os alunos, também existem tais - responder a frases-chave. Se você não toca em tópicos complexos, não avalia o conhecimento e a compreensão pessoais, pode ficar com a sensação de que o interlocutor é um intelectual e sabe do que está falando, embora na verdade esteja apenas repetindo as verdades que ouviu em algum lugar .
O homem obviamente não é determinado pelo que diz. Uma pessoa é determinada pelo fato de que pode agir com base em suas crenças. Ele pode analisar sua experiência ou perceber a experiência de outra pessoa.
Ele NÃO está exclusivamente envolvido em conversas, sem assumir qualquer responsabilidade por suas palavras.