Perguntas com a marcação «awk»

Uma linguagem de digitalização e processamento direcionada a padrões.



7
Repita cada linha várias vezes
Gostaria que cada linha de um arquivo fosse repetida um número fixo de vezes. por exemplo, repetir cada linha quatro vezes: a b c torna-se: a a a a b b b b c c c c Eu fiz algumas pesquisas e há muitas perguntas e respostas ao longo das …


5
Usando grep vs awk
Para capturar um padrão específico awke greppode ser usado. Por que devemos usar um sobre o outro? Qual é mais rápido e por quê? Se eu tivesse um arquivo de log e desejasse pegar um determinado padrão, poderia executar um dos seguintes awk '/pattern/' /var/log/messages ou grep 'pattern' /var/log/messages Eu …
17 linux  awk  grep  performance 

3
Substituir sequência multilinha nos arquivos
Eu tenho vários arquivos que quero atualizar substituindo uma sequência de linhas múltiplas por outra sequência de linhas múltiplas. Algo ao longo das linhas de: * Some text, * something else * another thing E eu quero substituí-lo por: * This is completely * different text O resultado seria que, …

2
Bloco condicional vs instrução condicional (se)
Digamos que eu tenho um arquivo: PRO 1 GLN 5.55112e-17 ILE -6.245e-17 THR 5.55112e-17 Eu quero que cada linha que tenha um número diferente de 1 na segunda coluna mude para 0 e mantenha o resto. Se eu usar if(ou seja, declaração condicional), está tudo bem: awk '{if($2!=1){print $1,"0"}else{print $0}}' …
17 awk 

3
Contar valores distintos de um campo em um arquivo
Eu tenho um arquivo que contém cerca de um milhão de linhas. Nas linhas, tenho um campo chamado transactionid, que tem valores repetitivos. O que preciso fazer é contá-los de maneira distinta. Não importa quantas vezes um valor seja repetido, ele deve ser contado apenas uma vez.

3
awk: forçando um status de retorno?
Este é um seguimento da minha pergunta anterior . Estou validando o número de campos em / etc / passwd usando este snippit útil. No exemplo a seguir, os usuários 'fieldcount1' e 'fieldcount2' têm o número errado de campos: $ awk -F: ' NF!=7 {print}' /etc/passwd fieldcount1:x:1000:100:fieldcount1:/home/fieldcount1:/bin/bash:::: fieldcount2:blah::blah:1002:100:fieldcount2:/home/fieldcount2:/bin/bash: $ echo …

1
Modo Slurp no awk?
Ferramentas como sed, awkou perl -nprocessar sua uma entrada registro de cada vez, registros sendo linhas por padrão. Alguns, como awkcom RS, GNU sedcom -zou perlcom -0ooopossível alterar o tipo de registro, selecionando um separador de registro diferente. perl -npode fazer da entrada inteira (cada arquivo individual quando passados ​​vários …
16 awk 



5
Extrair valor entre aspas duplas
Minha consulta é extrair o valor entre aspas duplas "". A entrada de amostra é: 10.219.41.68 - - - [11 / Jun / 2014: 10: 23: 04 -0400] Sec: 0 MicSec: 1797 "GET / gerenciador de balanceamento HTTP / 1.1" 200 28980 "-" "curl / 7.15.5 (i386 -redhat-linux-gnu) libcurl / …
16 awk 

2
Imprimir linhas entre (e incluindo) dois padrões
Eu quero começar o grepping a partir das linhas que tem CKno final da linha e parar de grepping quando a linha tiver Dno final. Eu tentei grep "$CK" "$D" file..txt, mas não funcionou. Entrada: kkkkkkkkkkk jjjjjjjjjjjjjjjjjj gggggggggggg/CK JHGHHHHHHHH HJKHKKLKLLL JNBHBHJKJJLKKL JLKKKLLKJLKJ/D GGGGGGGGGGGGGG GGGGGGGGGGGGGG A saída desejada: gggggggggggg/CK JHGHHHHHHHH HJKHKKLKLLL …

3
Filtre um arquivo .CSV com base nos valores da 5ª coluna de um arquivo e imprima esses registros em um novo arquivo
Eu tenho um arquivo .CSV com o formato abaixo: "column 1","column 2","column 3","column 4","column 5","column 6","column 7","column 8","column 9","column 10 "12310","42324564756","a simple string with a , comma","string with or, without commas","string 1","USD","12","70%","08/01/2013","" "23455","12312255564","string, with, multiple, commas","string with or, without commas","string 2","USD","433","70%","07/15/2013","" "23525","74535243123","string , with commas, and - hypens and: semicolans","string …
16 linux  sed  awk  csv  filter 

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.